Nixse
0

Erros no AI Overview do Google  durante o Memorial Day 

Resumo:

  • Erros do AI Overview: o recurso do Google produziu sugestões bizarras, incluindo usar cola em pizza e comer pedras.
  • Resposta rápida: o Google ajustou os erros e prometeu refinar seus sistemas, mas sua credibilidade é questionada.
  • Histórico de erros: erros passados ​​incluem o gerador de imagens Gemini produzindo imagens imprecisas, impactando a reputação do Google.

O fim de semana do Memorial Day nos Estados Unidos trouxe mais do que apenas churrascos e passeios na praia; também viu o Google (GOOG, GOOGL) lutando com uma série de sugestões bizarras e errôneas geradas por seu novo recurso AI Overview (Visão Geral da IA, tradução direta). 

Esse recurso do Google, projetado para fornecer respostas generativas baseadas em Inteligência Artificial (IA) para consultas de pesquisa, saiu dos trilhos no fim de semana. Em vez de fornecer informações confiáveis, produziu uma série de sugestões malucas e imprecisas. Entre as mais estranhas estavam as recomendações de que os usuários usassem cola não tóxica para evitar que o queijo escorregue da pizza, que era aconselhável consumir uma pedra por dia e uma afirmação errônea de que Barack Obama foi o primeiro presidente muçulmano dos Estados Unidos.

Em resposta, o Google removeu rapidamente esses resultados errados e anunciou esforços para usar esses erros para refinar seus sistemas. Apesar destas medidas corretivas, o incidente, combinado com erros do passado, como o malfadado lançamento do gerador de imagens Gemini, lançou uma sombra sobre a credibilidade do Google. A reputação da empresa como fonte confiável de informações está agora em jogo.

“O Google deveria ser a principal fonte de informações na Internet”, afirmou Chinmay Hegde, professor associado de ciência da computação e engenharia na Tandon School of Engineering da NYU. “E se esse produto tiver efeito negativo, irá minar lentamente a nossa confiança no Google.”

Históricos de erros de IA

O recente fiasco do AI Overview não é um incidente isolado para o Google. A gigante da tecnologia enfrentou vários desafios desde que iniciou a sua jornada de IA generativa. No início deste ano, o chatbot Bard da empresa, mais tarde rebatizado como Gemini, causou polêmica ao fornecer uma resposta errada em um vídeo promocional, impactando significativamente o preço das ações do Google.

Somando-se aos seus problemas, o gerador de imagens Gemini também vacilou ao produzir imagens historicamente imprecisas, como fotos que retratavam diversos grupos de pessoas vestidas incorretamente como soldados alemães de 1943. Embora a intenção do Google fosse evitar o preconceito da IA, apresentando uma gama diversificada de etnias, o tiro saiu pela culatra. O software até começou a rejeitar solicitações de imagens específicas com base em origens raciais e étnicas, o que levou o Google a desligar o gerador e apresentar um pedido de desculpas.

Os recentes deslizes do recurso ​​​​foram atribuídos a usuários que fizeram perguntas incomuns. Em um caso, um porta-voz do Google explicou que o conselho errôneo de comer pedras originou-se de um site geológico que distribuía conteúdo do The Onion, uma fonte de notícias satíricas. A visão geral da IA ​​vinculada inadvertidamente a este conteúdo demonstra as possíveis armadilhas da IA ​​generativa ao lidar com consultas atípicas.

Reconstruindo a confiança e seguindo em frente

Os incidentes do fim de semana do Memorial Day destacam os desafios que o Google enfrenta para manter a precisão e a confiabilidade de seus produtos baseados em IA. À medida que a empresa trabalha para corrigir estas questões, deve também abordar preocupações mais amplas sobre as implicações de tais erros na sua credibilidade global.

O compromisso do Google em usar esses erros para aprimorar seus sistemas é um passo na direção certa. No entanto, restaurar a confiança entre os utilizadores exigirá melhorias consistentes e transparentes. Garantir que o conteúdo gerado por IA atenda a altos padrões de precisão e confiabilidade é fundamental. Além disso, o Google deve aprimorar seus processos de verificação de conteúdo para evitar a inclusão de fontes enganosas ou satíricas em seus resultados de pesquisa.

A IA está evoluindo continuamente e se tornando mais integrada às aplicações cotidianas. À medida que isso acontece, empresas como o Google devem equilibrar inovação com confiabilidade. Acidentes recentes destacam a importância de testes rigorosos e controle de qualidade na implantação dessa tecnologia. O Google só poderá restaurar a sua reputação como fonte líder de informações confiáveis ​​através de esforço e vigilância sustentados.



[the_ad id="24160"]

você pode gostar também
Deixe uma resposta

Seu endereço de email não será publicado.