Hoved Innovasjon Google AI lar nå brukere umiddelbart oversette tekst på 27 språk med telefonkameraer

Google AI lar nå brukere umiddelbart oversette tekst på 27 språk med telefonkameraer

Hvilken Film Å Se?
 
(Gif: Google)

(Gif: Google)



Takket være kunstig intelligens har det aldri vært enklere å reise til utlandet.

Google Translate-appen lar brukerne oversette tekst umiddelbart. I appen er det bare å peke kameraet mot teksten du vil oversette, så vil du se det forvandles til ønsket språk live, rett foran øynene dine - ingen internettforbindelse eller mobiltelefondata er nødvendig. Denne praktiske funksjonen har vært tilgjengelig i noen tid, men den hadde bare vært kompatibel med syv språk. , takket være maskinlæring, har Google oppgradert appen til å umiddelbart oversette 27 språk.

Så neste gang du er i Praha og ikke kan lese en meny, har vi fått ryggen din, skrev Otavio Good, programvareingeniør hos Google, om selskapets forskning Blogg .

Google brukte også bare AI for å kutte deres talegjenkjenningsfeil i to.

I dag, i tillegg til å oversette mellom engelsk, fransk, tysk, italiensk, portugisisk, russisk og spansk, kan følgende 20 språk også oversettes i sanntid: bulgarsk, katalansk, kroatisk, tsjekkisk, dansk, nederlandsk, filippinsk, Finsk, ungarsk, indonesisk, litauisk, norsk, polsk, rumensk, slovakisk, svensk, tyrkisk og ukrainsk. Og hvis du velger å ta et bilde i stedet for å se teksten oversettes live, støttes totalt 37 språk.

Så hvordan klarte Google å øke antallet tilgjengelige språk? De kjøpte først Word Lens, tidligere et program for oversettelse av utvidet virkelighet, og brukte maskinlæring og konvolusjonelle nevrale nettverk for å forbedre appens evner. Fremskrittene innen bildegjenkjenning var nøkkelen.

For fem år siden, hvis du ga en datamaskin et bilde av en katt eller en hund, hadde den problemer med å fortelle hvilken som var hvilken. Takket være konvolusjonelle nevrale nettverk kan ikke bare datamaskiner fortelle forskjellen mellom katter og hunder, de kan til og med gjenkjenne forskjellige hunderaser, sa Good. Ja, de er bra for mer enn bare trippy kunst —Hvis du oversetter en utenlandsk meny eller registrerer deg med den nyeste versjonen av Googles Translate-app, bruker du nå et dypt nevralt nett.

Steg for steg

Først , Translate må lukke ut bakgrunnen og finne teksten. Når den lokaliserer blobs av piksler i samme farge, bestemmer den at de er bokstaver. Og når disse klattene er nær hverandre, forstår det at det er en kontinuerlig linje som skal leses.

Neste, appen må gjenkjenne hva hver enkelt bokstav er. Det er her dyp læring kommer inn.

Vi bruker et konvolusjonalt nevralt nettverk, trener det på bokstaver og ikke-bokstaver, slik at det kan lære hvordan forskjellige bokstaver ser ut, leser blogginnlegget.

Forskerne måtte trene programvaren ved å bruke ikke bare rene bokstaver, men også skitne. Bokstaver ute i den virkelige verden er skjemmet av refleksjoner, smuss, flekker og all slags rare ting, skrev Mr. Good. Så vi bygde brevgeneratoren vår for å skape alle slags falske smuss for å etterligne støyen fra den virkelige verden på en overbevisende måte - falske refleksjoner, falske flekker, falske rariteter rundt. Noen av

Noen av de skitne bokstavene som ble brukt til trening. (Foto: Google)








De tredje trinn er å slå opp de anerkjente bokstavene i en ordbok for å få oversettelsene. Og for et ekstra forsøk på nøyaktighet, er ordbokoppslag omtrentlige i tilfelle en S feilleses som en 5.

Til slutt, den oversatte teksten er gjengitt på toppen av originalen i samme stil.

Vi kan gjøre dette fordi vi allerede har funnet og lest bokstavene i bildet, slik at vi vet nøyaktig hvor de er. Vi kan se på fargene rundt bokstavene og bruke det til å slette de originale bokstavene. Og så kan vi tegne oversettelsen på toppen med den originale forgrunnsfargen, heter det i blogginnlegget.

For å være så effektiv som mulig og la alle disse trinnene fullføres i sanntid uten internett eller dataforbindelse, utviklet Google-teamet et veldig lite nevralnett med en øvre grense på informasjonstettheten det kan håndtere. Siden de genererte egne treningsdata, var det viktig å inkludere de riktige dataene, men ikke noe ekstra, slik at nevrale nettverk ikke bruker for mye av informasjonstettheten på uviktige ting. Et eksempel kan være hvordan det trenger å gjenkjenne et brev med en liten rotasjon, men ikke for mye.

Til slutt sitter brukerne igjen med 20 flere språk, men med samme raske hastighet.

SE OGSÅ: Googles AI-team ga oss nedgangen på maskinlæringsforskningen

Artikler Du Måtte Like :