Google Multitasking: Søk etter bilder og videoer

Til alle de som lurer på hva kunstig intelligens (AI) er for noe i hverdagen (hvis ikke Chat GPT eller den nye Google Bard var nok) svarte Mountain View-selskapet i dag med å kunngjøre noen viktige forbedringer av måten vi forsker hver dag, og overvinner – takket være AI – alle språklige og logistiske barrierer.

Til ropet "Ditt kamera er det neste tastaturet" eller "Hvis du kan se det, kan du søke etter det" , takket være Google Lens, blir Android-mobilkameraer nå ekte søkeverktøy (iPhone-brukere har for å åpne Google-appen og klikk på kameraet i søkestrengen).I utgangspunktet kan alt vi rammer inn med mobiltelefonen søkes etter og finnes. I tillegg til å bli oversatt, når det gjelder tekster, til 133 språk.

Hvis jeg for eksempel ser et par briller jeg liker, rammer jeg dem inn og klikker på bildet for å få tilgang til Google-søk som returnerer informasjon og kjøps alternativer. Eller jeg ser en plante som jeg ikke vet navnet på, jeg rammer den inn og har umiddelbart tilgang til spesialiserte nettsteder som forklarer meg hvilken plante det er.

Det er klart at denne forskningen åpner for en mengde muligheter, fra shopping til å forstå noe ukjent, for eksempel hvis vi er i utlandet, til å vite uten engang å spørre hva navnet på den deilige desserten vi ser fra vinduene til et konditori, for eksempel.

I de kommende månedene vil det også være mulig å bruke Lens til tingene vi ser på mobilskjermen. Takket være «Søk på skjermen din»-funksjonen på Android-enheter over hele verden, vil det være mulig å starte et søk fra det vi ser i et bilde eller en video på nettet og i favorittappene våre, som meldings- og videoapper, uten å måtte avslutte den spesifikke appen eller opplevelsen.

Tenk deg at noen sendte deg en WhatsApp-video av ferien sin i London. Kanskje du så et monument i bakgrunnen som fascinerte deg, for å finne ut mer, trykk og hold inne av/på-knappen eller Hjem-knappen på Android-telefonen din, for å starte Google-assistenten og trykk deretter på «søkeskjerm». Lens vil identifisere bygningen og returnere all informasjon om stedet.

Ikke bare online, finn i nærheten av meg

Hvis vi vil se rundt deg etter det vi har sett, lar multitasking-søket deg også ta et bilde med alternativet "nær meg" , for å identifisere for eksempel en nabolagsbedrift der du kan kjøpe det vi søker. Dette alternativet er for øyeblikket tilgjengelig på engelsk i USA, men vil bli lansert glob alt i løpet av de kommende månedene.

Endelig vil det snart være mulig å introdusere variabler i multitasking-søket.Jeg ser for eksempel et firkantet bord som jeg liker, men jeg vil gjerne at det skal være rundt. Jeg tar bildet, starter søket og legger til et annet alternativ (forskjellig form, farge, størrelse osv.). Hensikten med alle disse innovasjonene, som forklart Prabhakar Raghavan, senior visepresident i Google, er å gjøre søkeopplevelsen så enkel og fullstendig som mulig i samsvar med mottoet til den teknologiske giganten: «Forbedre livene til så mange mennesker som mulig ".

Og Google Maps blir oppslukende

La oss glemme tradisjonelle kart – som vi allerede er uendelig takknemlige for å ha veiledet oss frem til i dag – for i dag annonserte Chris Phillips, VP & General Manager for Geo (Googles Maps-divisjon) en innovasjon som vil forandre alt. Oppslukende kart (Live View).

Hvor mange ganger har vi fulgt instruksjonene, selv om de er nøyaktige, tatt feil side eller gått ut? Det er norm alt og det skjer med alle, men det ville ikke skjedd hvis det var samsvar mellom veien som er merket på kartet og det øynene våre ser.Derfor, i tillegg til å snart lansere Augmented Reality for kartene over Firenze og Venezia, vil vi snart kunne planlegge bevegelsene våre til millimeteren og vite nøyaktig hvordan gaten ser ut, stedet vi ønsker å nå og alle stedene, også innendørs , som vår vei innebærer.

I utgangspunktet, ved å kombinere alle eksisterende bilder av de forskjellige stedene på jorden, vil Google Maps kunne gi oss en 3D-visjon av byer, komplett med rekonstruksjon av indre rom (f.eks. museer, restauranter, kjøpesentre, Flyplasser og stasjoner).

Reisen før reisen

Ved å bruke fremskritt innen kunstig intelligens og datasyn, fusjonerer oppslukende visualisering milliarder av Street View-bilder og flybilder for å skape en utrolig rik digital modell av verden. Men det stopper ikke der. Maps er fortsatt et barn av Google, så 3D-visualiseringen vilogså kunne gi nyttig informasjon som vær, trafikk og hvor overfylt et sted er.

Hvis vi for eksempel planlegger et besøk til Rijksmuseum i Amsterdam, kan vi praktisk t alt fly over bygningen og se hvor for eksempel museumsinngangene er plassert. Med tidsglidebryteren kan vi se hvordan området ser ut til ulike tider av døgnet og spørre hvordan været blir. Vi kan også identifisere de travleste stedene, slik at du har all informasjonen du trenger for å bestemme hvor og når du skal dra. Og hvis vi vet at vi skal reise rundt lunsjtid, kan vi utforske nærliggende restauranter, og til og med ta en titt på innsiden for raskt å få en følelse av et sted før du bestiller.

Verden i 3D

Det ser ut som science fiction, men det er bare vitenskap. Som Google forklarer: «For å lage disse naturtro scenene bruker vi Neural Radiance Fields (NeRF), en avansert AI-teknikk som forvandler vanlige bilder til 3D-representasjoner.Med NeRF kan vi nøyaktig gjenskape hele konteksten til et sted, inkludert belysning, tekstur av materialer og bakgrunn. Alt dette lar oss forstå om den stemningsfulle belysningen av en bar er den rette atmosfæren for en galant kveld, eller om utsikten til en kafé gjør den til det ideelle stedet for en lunsj med venner“.

Si farvel til dårlige overraskelser på feil sted.

Denne søketypen er for øyeblikket tilgjengelig i London, Los Angeles, New York, San Francisco, Paris og Tokyo (for Android og iPhone). De neste byene blir Barcelona, Dublin og Madrid. Og så vil Live View utvides til 1000 nye flyplasser, togstasjoner og kjøpesentre (stedene hvor det er lettere å gå seg vill eller lete etter toaletter) i Barcelona, Berlin, Frankfurt, London, Madrid, Melbourne, Paris, Praha, Sao Paulo, Singapore, Sydney, Taipei og Tokyo. For øyeblikket dekker det allerede flyplasser i USA, Zürich og Tokyo.

Flere Maps-nyheter

Som vi har nevnt, vil muligheten for å utforske byer og gater i sanntid, identifisere steder og virksomheter med Augmented Reality påvirke byene Venezia og Firenze først i Italia. Gir de som besøker dem umiddelbar tilgang til mye nyttig informasjon, for eksempel hvor et apotek er, om det er en restaurant i nærheten, hvor populær den er, hvilken rangering den har, osv. alt ganske enkelt ved å ramme en gate.

Men blant de nye utviklingene er det et viktig fokus på reisenes bærekraft. Hvis Google Maps allerede er i stand til å anbefale den mest bærekraftige ruten på et økologisk nivå, vil det snart utvide tilbudet spesifikt for elbiler - med ad hoc reiseruter og ladestasjoner, til sykler - med anti-smog reiseruter, for fotgjengere og de som bruke offentlig transport. Forbedrer også indikasjonen av ruten i sanntid på kartet og legger til nyttige bilder når du skal ta en sving eller finne en bygning.

Kort veibeskrivelse

Med veibeskrivelse på et øyeblikk kan du følge reisen direkte fra ruteoversikten eller fra låseskjermen. Du kan se estimerte ankomsttider og neste sving, informasjon som tidligere kun var synlig ved å låse opp telefonen, åpne appen og bruke full navigasjonsmodus. Og hvis vi bestemmer oss for å ta en annen rute, blir reisen vår automatisk oppdatert. Instruksjoner med et blikk vil begynne å rulle ut over hele verden på Android og iOS i løpet av de kommende månedene, og vil også være kompatible med Live Activities på iOS 16.1.

De som elsker å gå seg rolig bort eller følge stjernene kan fortsette å gjøre det uten problemer.

Interessante artikler...