Hoofd Innovatie Google AI laat gebruikers nu direct tekst vertalen in 27 talen met telefooncamera's

Google AI laat gebruikers nu direct tekst vertalen in 27 talen met telefooncamera's

Welke Film Te Zien?
 
(Gif: Google)

(Gif: Google)



Dankzij kunstmatige intelligentie is reizen naar het buitenland nog nooit zo eenvoudig geweest.

Met de Google Translate-app kunnen gebruikers tekst direct vertalen. Richt in de app je camera op de tekst die je wilt vertalen en je ziet hem live voor je ogen in de gewenste taal veranderen - geen internetverbinding of mobiele telefoongegevens nodig. Deze handige functie is al een tijdje beschikbaar, maar was alleen compatibel met zeven talen. Nu , dankzij machine learning heeft Google de app geüpgraded om 27 talen onmiddellijk te vertalen.

Dus de volgende keer dat u in Praag bent en geen menu kunt lezen, staan ​​we voor u klaar, schreef Otavio Good, software-engineer bij Google, over het onderzoek van het bedrijf Blog .

Google heeft ook zojuist AI gebruikt om hun spraakherkenningsfouten te halveren.

Vanaf vandaag kunnen naast vertalingen tussen Engels, Frans, Duits, Italiaans, Portugees, Russisch en Spaans ook de volgende 20 talen in realtime worden vertaald: Bulgaars, Catalaans, Kroatisch, Tsjechisch, Deens, Nederlands, Filipijns, Fins, Hongaars, Indonesisch, Litouws, Noors, Pools, Roemeens, Slowaaks, Zweeds, Turks en Oekraïens. En als u ervoor kiest om een ​​foto te maken in plaats van de tekst live te zien vertalen, worden in totaal 37 talen ondersteund.

Dus hoe kon Google het aantal beschikbare talen verhogen? Ze kochten eerst Word Lens, voorheen een augmented reality-vertaaltoepassing, en gebruikten machine learning en convolutionele neurale netwerken om de mogelijkheden van de app te verbeteren. De vooruitgang op het gebied van beeldherkenning was cruciaal.

Als je vijf jaar geleden een computer een afbeelding van een kat of een hond gaf, had hij moeite om te bepalen welke welke was. Dankzij convolutionele neurale netwerken kunnen computers niet alleen het verschil tussen katten en honden zien, ze kunnen zelfs verschillende hondenrassen herkennen, zei Mr. Good. Ja, ze zijn goed voor meer dan alleen trippy kunst - als je een buitenlands menu vertaalt of tekent met de nieuwste versie van de Google Translate-app, gebruik je nu een diep neuraal netwerk.

Stap voor stap

Eerste , Translate moet rommel op de achtergrond verwijderen en de tekst lokaliseren. Wanneer het klodders pixels van dezelfde kleur lokaliseert, bepaalt het dat het letters zijn. En als die klodders dicht bij elkaar staan, begrijpt het dat het een doorlopende regel is om te lezen.

De volgende, de app moet herkennen wat elke afzonderlijke letter is. Dit is waar diep leren om de hoek komt kijken.

We gebruiken een convolutioneel neuraal netwerk en trainen het op letters en niet-letters, zodat het kan leren hoe verschillende letters eruit zien, leest de blogpost.

De onderzoekers moesten de software trainen met niet alleen schone letters, maar ook met vuile letters. Brieven in de echte wereld worden ontsierd door reflecties, vuil, vegen en allerlei vreemde dingen, schreef Mr. Good. Dus hebben we onze lettergenerator gebouwd om allerlei nepvuil te creëren om het lawaai van de echte wereld overtuigend na te bootsen - nepreflecties, nepvegen, nepgekte overal. Sommige van de

Sommige van de vuile letters gebruikt voor training. (Foto: Google)








De derde stap is het opzoeken van de herkende letters in een woordenboek om de vertalingen te krijgen. En voor een extra poging tot nauwkeurigheid, zijn woordenboekzoekopdrachten bij benadering in het geval dat een S verkeerd wordt gelezen als een 5.

als laatste, de vertaalde tekst wordt in dezelfde stijl bovenop het origineel weergegeven.

We kunnen dit doen omdat we de letters in de afbeelding al hebben gevonden en gelezen, zodat we precies weten waar ze zijn. We kunnen kijken naar de kleuren rond de letters en die gebruiken om de originele letters te wissen. En dan kunnen we de vertaling bovenaan tekenen met de originele voorgrondkleur, luidt de blogpost.

Om zo efficiënt mogelijk te zijn en al deze stappen in realtime te kunnen voltooien zonder internet of dataverbinding, heeft het Google-team een ​​heel klein neuraal netwerk ontwikkeld met een bovengrens voor de dichtheid van informatie die het aankan. Omdat ze hun eigen trainingsgegevens aan het genereren waren, was het belangrijk om de juiste gegevens op te nemen, maar niets extra's, zodat het neurale netwerk niet te veel van zijn informatiedichtheid gebruikt voor onbelangrijke dingen. Een voorbeeld is hoe het een letter moet herkennen met een kleine hoeveelheid rotatie, maar niet te veel.

Uiteindelijk houden gebruikers nog 20 talen over, maar met dezelfde hoge snelheid.

ZIE OOK: Het AI-team van Google gaf ons het dieptepunt van hun onderzoek naar machine learning

Artikelen Die U Misschien Leuk Vindt :