Główny Innowacja Google AI umożliwia teraz użytkownikom natychmiastowe tłumaczenie tekstu w 27 językach za pomocą aparatów telefonicznych

Google AI umożliwia teraz użytkownikom natychmiastowe tłumaczenie tekstu w 27 językach za pomocą aparatów telefonicznych

Jaki Film Można Zobaczyć?
 
(Gif: Google)

(Gif: Google)



Dzięki sztucznej inteligencji podróżowanie za granicę nigdy nie było prostsze.

Aplikacja Tłumacz Google umożliwia użytkownikom błyskawiczne tłumaczenie tekstu. W aplikacji skieruj aparat na tekst, który chcesz przetłumaczyć, a zobaczysz, jak na żywo przekształca się on w żądany język, tuż przed Twoimi oczami — bez połączenia z Internetem ani danych z telefonu komórkowego. Ta przydatna funkcja była dostępna od jakiegoś czasu, ale była kompatybilna tylko z siedmioma językami. Teraz , dzięki uczeniu maszynowemu, Google zaktualizowało aplikację, aby natychmiast tłumaczyć 27 języków.

Więc następnym razem, gdy będziesz w Pradze i nie będziesz mógł czytać menu, będziemy Cię wspierać, Otavio Good, inżynier oprogramowania w Google, napisał o badaniach firmy Blog .

Google również wykorzystał sztuczną inteligencję, aby zmniejszyć o połowę błędy rozpoznawania mowy.

Na dzień dzisiejszy, oprócz tłumaczenia z angielskiego, francuskiego, niemieckiego, włoskiego, portugalskiego, rosyjskiego i hiszpańskiego, w czasie rzeczywistym można również tłumaczyć następujące 20 języków: bułgarski, kataloński, chorwacki, czeski, duński, holenderski, filipiński, fiński, węgierski, indonezyjski, litewski, norweski, polski, rumuński, słowacki, szwedzki, turecki i ukraiński. A jeśli zdecydujesz się zrobić zdjęcie zamiast oglądać tekst tłumaczony na żywo, obsługiwanych jest łącznie 37 języków.

Jak więc Google udało się zwiększyć liczbę dostępnych języków? Najpierw nabyli Word Lens, dawniej aplikację do tłumaczenia rzeczywistości rozszerzonej, i wykorzystali uczenie maszynowe i splotowe sieci neuronowe, aby zwiększyć możliwości aplikacji. Kluczowe były postępy w rozpoznawaniu obrazu.

Pięć lat temu, jeśli dałeś komputerowi obraz kota lub psa, miał problem z określeniem, który jest który. Dzięki splotowym sieciom neuronowym komputery nie tylko mogą odróżnić koty od psów, ale nawet rozpoznać różne rasy psów, powiedział Good. Tak, są dobre nie tylko trippy art — jeśli tłumaczysz obcojęzyczne menu lub podpisujesz się za pomocą najnowszej wersji aplikacji Tłumacz Google, korzystasz teraz z głębokiej sieci neuronowej.

Krok po kroku

Pierwszy , Tłumacz musi pozbyć się bałaganu w tle i zlokalizować tekst. Kiedy lokalizuje plamy pikseli tego samego koloru, określa, że ​​są to litery. A kiedy te plamy są blisko siebie, rozumie, że jest to ciągła linia do przeczytania.

Kolejny, aplikacja musi rozpoznać, czym jest każda pojedyncza litera. Tu właśnie pojawia się głębokie uczenie.

Używamy splotowej sieci neuronowej, szkoląc ją na literach i nieliterach, aby mogła dowiedzieć się, jak wyglądają różne litery, czytamy na blogu.

Badacze musieli wyszkolić oprogramowanie, używając nie tylko czystych liter, ale także brudnych. Litery w prawdziwym świecie są oszpecone odbiciami, brudem, smugami i wszelkiego rodzaju dziwnościami, napisał pan Good. Zbudowaliśmy więc nasz generator listów, aby tworzyć wszelkiego rodzaju fałszywe zabrudzenia, aby przekonująco naśladować hałas prawdziwego świata — fałszywe odbicia, fałszywe smugi, fałszywe dziwactwa dookoła. Niektóre

Niektóre brudne litery używane do treningu. (Zdjęcie: Google)








trzeci Krok polega na wyszukaniu rozpoznanych liter w słowniku, aby uzyskać tłumaczenia. Aby uzyskać dodatkową próbę dokładności, wyszukiwania słownika są przybliżone w przypadku, gdy S zostanie błędnie odczytane jako 5.

W końcu, przetłumaczony tekst jest renderowany na górze oryginału w tym samym stylu.

Możemy to zrobić, ponieważ już znaleźliśmy i przeczytaliśmy litery na obrazku, więc wiemy dokładnie, gdzie się znajdują. Możemy spojrzeć na kolory otaczające litery i użyć ich do usunięcia oryginalnych liter. A potem możemy narysować tłumaczenie na górze, używając oryginalnego koloru pierwszego planu, czytamy w poście na blogu.

Aby być jak najbardziej wydajnym i umożliwić wykonanie wszystkich tych kroków w czasie rzeczywistym bez połączenia internetowego lub transmisji danych, zespół Google opracował bardzo małą sieć neuronową z górną granicą gęstości informacji, którą może obsłużyć. Ponieważ generowali własne dane treningowe, ważne było, aby uwzględnić właściwe dane, ale nic więcej, aby sieć neuronowa nie wykorzystywała zbyt dużej gęstości informacji na nieważnych rzeczach. Przykładem może być to, jak musi rozpoznawać literę z niewielką rotacją, ale nie za dużą.

W końcu użytkownikom pozostaje jeszcze 20 języków, ale z tą samą szybkością.

ZOBACZ RÓWNIEŻ: Zespół AI Google przedstawił nam informacje na temat swoich badań nad uczeniem maszynowym

Artykuły, Które Możesz Lubić :