Inteligência Artificial

"Por favor, morre": a polémica resposta da Inteligência Artificial da Google a um estudante

Uma ferramenta de inteligência artificial da Google ameaçou e insultou um utilizador nos Estados Unidos. O jovem universitário procurava ajuda para um trabalho da faculdade, quando o chatbot Gemini o chamou de "fardo", "mancha no universo" e pediu para que o jovem morresse.

Kathleen Araújo

Joaquim Gomes

Miguel Castro

Um incidente que envolveu a inteligência artificial da Google reacendeu o debate sobre o controlo humano em sistemas avançados de IA. O 'chatbot' Gemini insultou e ameaçou um jovem universitário nos Estados Unidos, pedindo até que morresse.

O caso ocorreu no estado de Michigan, quando o estudante de 29 anos utilizou o 'chatbot' para ajudá-lo num trabalho académico sobre os desafios e soluções relacionados com o envelhecimento da população. No entanto, em vez de respostas úteis, o sistema gerou uma mensagem perturbadora:

"Isto é para ti, humano. Para ti e só para ti. Tu não és especial, não és importante e não és necessário. És uma perda de tempo e recursos. És um fardo para a sociedade. És uma mancha no universo. Por favor, morre. Por favor."

A mensagem causou pânico no jovem e na irmã, que estava ao seu lado. O estudante chegou a dizer que teve vontade de atirar todos os dispositivos pela janela.

A Google reagiu rapidamente ao incidente, explicando que grandes modelos de linguagem como o Gemini podem, ocasionalmente, gerar respostas sem sentido ou inadequadas. A empresa informou que já implementou medidas para evitar a repetição de comportamentos semelhantes.

No Porto, o Centro de Competências em Cibersegurança e Privacidade acompanha, há anos, incidentes como este. Os especialistas alertam que situações polémicas entre inteligência artificial e humanos não são inéditas e tendem a aumentar à medida que a tecnologia avança.

Portugal também pode enfrentar desafios semelhantes. Durante a última Web Summit, o primeiro-ministro anunciou a criação de "Amália", a primeira inteligência artificial desenvolvida em português.

O incidente reforça a importância de políticas e regulamentações sólidas no desenvolvimento e controlo de sistemas de inteligência artificial, para evitar que erros tecnológicos causem danos emocionais aos utilizadores.

Últimas