O Google tem um novo agente de IA que pode lhe dizer coisas sobre o que está ao seu redor. Muitas coisas.

Chamado de “Projeto Astra”, é uma ferramenta de IA multimodal baseada no Gemini que permite apontar a câmera do seu telefone para coisas da vida real e obter uma descrição falada do que você está vendo.

Em uma demonstração, mostrada durante a conferência I/O do Google na terça-feira, a ferramenta foi apontada para um alto-falante, identificando corretamente uma parte dele como um tweeter. Muito mais impressionante, a câmera do telefone foi então voltada para um trecho de código na tela de um computador, com o Astra produzindo uma visão geral bastante detalhada do que o código está fazendo.

Velocidade da luz mashável

Finalmente, a pessoa que estava testando o Projeto Astra virou o telefone para a janela e perguntou: “Em que bairro você acha que estou?” Depois de alguns segundos, Gemini respondeu: “Esta parece ser a área de King’s Cross, em Londres”, junto com alguns detalhes sobre o bairro. Por fim, a ferramenta foi solicitada a encontrar um par de óculos perdido e ela obedeceu, dizendo exatamente onde os óculos foram deixados.

Talvez na parte mais interessante do vídeo, vemos que esses óculos são na verdade uma espécie de óculos inteligentes, que podem novamente ser usados ​​para alertar Gêmeos sobre o que o usuário vê – neste caso, dando uma sugestão em um diagrama desenhado em um quadro branco. .

VEJA TAMBÉM:

Google I/O 2024: ‘AI Agents’ são assistentes pessoais de IA que podem devolver seus sapatos

De acordo com Demis Hassabis, CEO da DeepMind do Google, algo como o Astra pode estar disponível tanto no telefone quanto nos óculos de uma pessoa. A empresa, no entanto, não divulgou uma data de lançamento, embora Hassabis tenha dito que alguns desses recursos chegarão aos produtos do Google “ainda este ano”.

Tópicos
Inteligência artificial



Fuente