O Google revelou nesta terça-feira (14) o Project Astra. Apresentado no Google I/O 2024 como “o futuro dos assistentes de IA”, a novidade é um assistente multimodal universal que pode ver o mundo ao redor, saber o que são as coisas e até onde você as deixou, além de responder perguntas.

Ele também fala com mais naturalidade e, segundo a empresa, não sofre com atrasos. Veja o que já foi revelado até aqui.

O que sabemos sobre o novo assistente de IA

  • Em demonstração, Demis Hassabis, chefe do Google DeepMind e líder da divisão de IA do Google, pede ao assistente para detectar um dispositivo capaz de emitir som.
  • O Project Astra responde dizendo que encontrou um alto-falante.
  • O assistente conseguiu identificar e explicar mais sobre componentes do alto-falante.
  • Em seguida, foi mostrado um monitor com código de programação na tela. Quando perguntado sobre o que o código faz, o Project Astra conseguiu explicar tudo praticamente em tempo real e de forma simples.
  • Por fim, ficou claro que o assistente consegue até lembrar de objetos que já viu antes.
  • Quando peguntado se lembra onde viu os óculos de Demis, o assistente prontamente respondeu: “perto de uma maçã vermelha“.

Confira o vídeo demonstrativo divulgado pelo Google:

Segundo Hassabis, o Astra está muito próximo de como um verdadeiro assistente de IA em tempo real deveria funcionar. Ele consegue processar informações muito mais rápido e faz isso por meio de uma nova codificação de imagens e fala. Em seguida, tudo é armazenado em cache, criando uma espécie de memória para responder perguntas do passado (como a localização dos óculos, por exemplo).

Quando o Project Astra será lançado pelo Google?

O Google afirma que alguns recursos serão adicionados ao Gemini e outros produtos ainda este ano. Uma data oficial ainda não foi revelada. O Astra ainda está em fase inicial de testes.

Compartilhar matéria no
Project Astra: Google revela assistente de IA capaz de ‘ver e lembrar’