Na última terça-feira (20), dentre diversas novidades, o Google anunciou que sua Inteligência Artificial passará a usar a câmera do celular para “ver” o ambiente e auxiliar nas respostas, além de avançar em recursos de busca e assistência pessoal. A ferramenta já está disponível para aparelhos Android e iOS nos Estados Unidos.
O anúncio foi feito durante o I/O, evento anual para desenvolvedores realizado em Mountain View, nos Estados Unidos, onde também foi revelado que a IA do Google ganhou “olhos” no celular.
Com o novo recurso Gemini Live, o usuário pode abrir a câmera para que a Inteligência Artificial interprete o que está à frente e execute comandos. A funcionalidade permite, por exemplo, responder sobre o estilo de decoração de um ambiente ou até auxiliar na prova de roupas de forma digital.
Outra novidade é o Google Beam, que criará chamadas de vídeo em 3D usando Inteligência Artificial. A ferramenta utiliza o Project Starline, tecnologia de geração de vídeos tridimensionais apresentada há alguns anos, para transformar chamadas de vídeo 2D em uma experiência 3D em tempo real. Por meio da combinação de seis câmeras virtuais com IA, a pessoa do outro lado da chamada aparece com maior profundidade, sombras e volume, criando uma sensação de imersão mais realista.
O Google Meet também passará a contar com tradução em tempo real. A empresa começará os testes com tradução simultânea de áudios durante as chamadas, inicialmente entre os idiomas inglês e espanhol.
Além disso, a IA do Google se tornará bilíngue em tempo real. O Gemini poderá reconhecer e interagir com duas vozes diferentes no mesmo ambiente, alternando entre idiomas durante a conversa de forma dinâmica.
SOBRE A AUTORA
Jornalista, pós-graduando em Marketing Digital, com experiência em jornalismo digital e impresso, além de produção e captação de conte… saiba mais
Crédito: Link de origem