Fördjupning, översättning… Google fortsätter att revolutionera sökningen


Google gjorde nya tillkännagivanden på onsdagen vid evenemanget Search On som går långt utöver historisk textsökning.
I flera år har Google utvecklat mer och mer naturliga och intuitiva sätt att söka information. Från förrtidens textsökning är det nu möjligt att utföra sökningar från ett foto eller ett röstkommando. På onsdagen utnyttjade Mountain View-företaget sitt Google Search On-evenemang för att visa alla möjligheter som erbjuds av framsteg inom artificiell intelligens, genom nya, allt mer uppslukande funktioner.
Multisearch-funktionen, som gör det möjligt att söka från bilder och texter samtidigt, kommer snart att anlända till Europa
Den var för närvarande bara tillgänglig i betaversion i USA, men nu kommer den att utökas till mer än 70 nya språk, inklusive franska, under den kommande månaden. Vad pratar vi om ? Från Multisearch-funktionen, som i sig använder Google Lens visuell sökning, invigdes 2017 och som idag gör det möjligt att behandla cirka 8 miljarder förfrågningar per månad.

Multisearch låter dig söka från bilder och text, allt på samma gång. Den här första funktionen kommer snart att finnas tillgänglig i Frankrike, men Google har redan lovat att lansera den förbättrade versionen i höst i USA. Denna är döpt Multisearch nära mig, förstå “Multisearch nära mig” på franska. Här tar användaren ett foto av ett föremål, en växt, en maträtt och Google berättar på ett ögonblick var han kan hitta det på en närliggande plats. Ganska häpnadsväckande.
En ny era för översättning
Google Translate kommer också att känna till sin revolution. Det amerikanska företagets översättningsverktyg vill hjälpa till att bryta språkbarriärer genom visuell kommunikation. Så kunde Google med hjälp av AI växla från att översätta text till att översätta bilder. En siffra vittnar om användbarheten av verktyget: varje månad registrerar företaget mer än en miljard användningar för översättning av en text från ett foto, allt på 100 olika språk.
Och för att gå längre, erbjuder Google nu sina användare möjligheten att återintegrera texten när den väl har översatts, direkt till originalbilden, via GAN (Generativa kontradiktoriska nätverk), som kan översättas som “generativa motstridiga nätverk”, en ganska ny teknik som är särskilt lovande, som kan jämföras med den kreativa delen av maskininlärning.

På den praktiska sidan, om du riktar kameran mot en tidning på ett främmande språk, kommer Google automatiskt att översätta texten och lägga över den på bilderna på sidan, som om den vore utskriven.
Den uppslukande vyn berikar Google Maps mer än någonsin
Med de framsteg som gjorts inom prediktiva modeller och artificiell syn, hävdar Google högljutt att de har ombildat kartkonceptet, och gått från en 2D-bild till en flerdimensionell vy av vår värld. Allt detta så att användaren representerar en plats nästan som om han var där fysiskt.
Vi visste redan visningen av trafik i realtid, särskilt baserat på deltagande aspekten av Google Maps, men nu kommer applikationen att berikas av den uppslukande vyn. Den senare består av en dynamisk representation av olika och varierande information, såsom välstånd och väder. Utöver all information som redan tillhandahålls… Användaren kan då få en ganska exakt uppfattning om en målplats redan innan han sätter sin fot där.

Om vi tar exemplet med en restaurang, låter den uppslukande vyn dig först zooma in på grannskapet, sedan på den riktade anläggningen, och på så sätt ta del av frekventeringen av platsen vid den eller den tiden på dagen. (användaren har en markör som hjälper honom att välja den exakta tiden) och vädret.
Uppenbarligen kräver den här funktionen stora mänskliga resurser och flygbilder, så den är särskilt komplex att distribuera. Det är vår lilla ånger. 250 monument är alltså tillgängliga för den första versionen av denna funktion. Den uppslukande utsikten kommer definitivt att lanseras i fem städer (San Francisco, Los Angeles, New York, London och Tokyo) under de kommande månaderna. Andra städer kommer utan tvekan att följa efter senare.