Pesquisar
Close this search box.
Publicidade
Publicidade
Publicidade

Vice-Presidente do Google afirma que vai demorar para IA ser totalmente confiavel

Coreia do Sul adverte Google e Apple sobre abuso de posição no mercado de aplicativos.
Foto: Divulgação

A conquista da credibilidade completa por parte dos grandes modelos de linguagem (LLM) que alimentam plataformas de inteligência artificial e chatbots está longe de ser iminente, de acordo com o alerta emitido por Prabhakar Raghavan, vice-presidente sênior do Google.

Raghavan discursou em um evento promovido pelo Instituto de Estudos Avançados (IEA) da Universidade de São Paulo (USP), enfatizando que a melhoria gradual dos modelos é uma trajetória constante. No entanto, ele ressaltou que alcançar uma precisão de 100% é um objetivo que deve permanecer fora de alcance por um longo período.

“Os modelos vão aprimorando-se de maneira progressiva. Contudo, se o que você busca é uma exatidão absoluta, então é provável que continue a se decepcionar por um bom tempo”, afirmou Raghavan.

Publicidade

Durante sua palestra intitulada “Mecanismos de Busca e Sociedade: Qualidade da Informação e Potencial da Inteligência Artificial”, Raghavan discutiu a integração da inteligência artificial ao mecanismo de busca do Google por meio do modelo Bard, desenvolvido pela empresa. Ele enfatizou que os LLMs, em sua essência, preveem a próxima palavra em uma frase, destacando que correlação difere de causalidade. Ocasionalmente, a correlação se transforma em causalidade, mas isso não implica automaticamente em inteligência.

O vice-presidente do Google também abordou os desafios de atribuir fontes às informações nos resultados de buscas alimentados por inteligência artificial. A resposta a uma busca realizada usando um LLM frequentemente é uma frase, que não existe literalmente em nenhum local da internet, visto que, em geral, é uma combinação de informações coletadas de diversas fontes.

Raghavan revelou que a empresa está trabalhando em um mecanismo capaz de identificar quando existe uma fonte predominante para uma resposta de IA, que é apoiada por outras fontes. Segundo ele, essa tarefa é mais simples quando a resposta a uma consulta é um resumo dos inúmeros resultados obtidos, pois é possível rastrear a origem de cada frase utilizada no resumo.

conteúdo patrocinado

MAIS LIDAS

conteúdo patrocinado
conteúdo patrocinado