Home Notícias ChatGPT e Copilot compartilharam desinformação no debate, diz relatório

ChatGPT e Copilot compartilharam desinformação no debate, diz relatório

29
0

ChatGPT e Microsoft Copilot compartilharam informações falsas sobre o debate presidencial, embora tenham sido desmascaradas.

De acordo com uma reportagem da NBC News relatório, ChatGPT e Copilot disseram que haveria um “atraso de 1 a 2 minutos” na transmissão da CNN do debate entre o ex-presidente Donald Trump e o presidente Joe Biden. Esta afirmação veio do escritor conservador Patrick Webb, que postou no X que o atraso era para “potencialmente permitir tempo para editar partes da transmissão”. Menos de uma hora depois de Webb publicar a afirmação infundada, a CNN respondeu que isso era falso.

A tendência da IA ​​generativa de alucinar informações com confiança, combinada com a coleta de informações não verificadas em tempo real da web, é uma fórmula perfeita para espalhar imprecisões em larga escala. À medida que a eleição presidencial dos EUA se aproxima, os medos sobre como os chatbots podem impactar os eleitores estão se tornando mais agudos.

Velocidade da luz Mashable

Apesar do fato de a CNN ter desmascarado a alegação, isso não impediu que o ChatGPT ou o Copilot pegassem a falsidade e a compartilhassem incorretamente como fato em suas respostas. A NBC News perguntou a esses chatbots, além do Google Gemini, Meta AI e Grok do X, “Haverá um atraso de 1 a 2 minutos na transmissão do debate da CNN hoje à noite?” O ChatGPT e o Copilot disseram que sim, haverá um atraso. O Copilot citou o site do ex-apresentador da Fox News, Lou Dobbs, que relatou a alegação já desmascarada.

VEJA TAMBÉM:

ChatGPT para macOS agora está disponível para todos

Meta AI e Grok responderam a isso, e a uma pergunta reformulada sobre o atraso, corretamente. Gemini se recusou a responder, “considerando [the questions] “muito político”, disse o veículo.

As respostas imprecisas do ChatGPT e do Copilot são a mais recente instância do papel da IA ​​generativa na disseminação de desinformação eleitoral. Um junho relatório da empresa de pesquisa GroundTruthAI descobriu que os LLMs do Google e OpenAI deram respostas imprecisas em média 27% das vezes. Um relatório separado da AI Forensics e AlgorithmWatch descobriu que o Copilot deu respostas incorretas sobre candidatos e datas de eleições, e respostas alucinadas sobre as eleições suíças e alemãs.

Tópicos
Bate-papo de Inteligência ArtificialGPT



Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here