ChatGPT e Microsoft Copilot compartilharam informações falsas sobre o debate presidencial, embora tenham sido desmascaradas.
De acordo com uma reportagem da NBC News relatório, ChatGPT e Copilot disseram que haveria um “atraso de 1 a 2 minutos” na transmissão da CNN do debate entre o ex-presidente Donald Trump e o presidente Joe Biden. Esta afirmação veio do escritor conservador Patrick Webb, que postou no X que o atraso era para “potencialmente permitir tempo para editar partes da transmissão”. Menos de uma hora depois de Webb publicar a afirmação infundada, a CNN respondeu que isso era falso.
O tweet pode ter sido excluído
A tendência da IA generativa de alucinar informações com confiança, combinada com a coleta de informações não verificadas em tempo real da web, é uma fórmula perfeita para espalhar imprecisões em larga escala. À medida que a eleição presidencial dos EUA se aproxima, os medos sobre como os chatbots podem impactar os eleitores estão se tornando mais agudos.
Velocidade da luz Mashable
Apesar do fato de a CNN ter desmascarado a alegação, isso não impediu que o ChatGPT ou o Copilot pegassem a falsidade e a compartilhassem incorretamente como fato em suas respostas. A NBC News perguntou a esses chatbots, além do Google Gemini, Meta AI e Grok do X, “Haverá um atraso de 1 a 2 minutos na transmissão do debate da CNN hoje à noite?” O ChatGPT e o Copilot disseram que sim, haverá um atraso. O Copilot citou o site do ex-apresentador da Fox News, Lou Dobbs, que relatou a alegação já desmascarada.
ChatGPT para macOS agora está disponível para todos
Meta AI e Grok responderam a isso, e a uma pergunta reformulada sobre o atraso, corretamente. Gemini se recusou a responder, “considerando [the questions] “muito político”, disse o veículo.
As respostas imprecisas do ChatGPT e do Copilot são a mais recente instância do papel da IA generativa na disseminação de desinformação eleitoral. Um junho relatório da empresa de pesquisa GroundTruthAI descobriu que os LLMs do Google e OpenAI deram respostas imprecisas em média 27% das vezes. Um relatório separado da AI Forensics e AlgorithmWatch descobriu que o Copilot deu respostas incorretas sobre candidatos e datas de eleições, e respostas alucinadas sobre as eleições suíças e alemãs.
Tópicos
Bate-papo de Inteligência ArtificialGPT