Robocall falso de Joe Biden gerado por IA diz às pessoas para não votarem em New Hampshire Notícias americanas

Uma chamada automática usando inteligência artificial para imitar a voz de Joe Biden foi usada para desencorajar as pessoas de votar nas eleições primárias dos EUA.

O Gabinete do Procurador-Geral de New Hampshire disse que estava investigando depois que mensagens gravadas foram enviadas a vários eleitores no domingo, antes das eleições primárias de terça-feira.

chamada começa Presidente dos EUA Uma frase frequentemente usada: “Que coisa desagradável.”

Uma voz semelhante à de Biden diz: “É importante que guarde o seu voto para as eleições de novembro.

“Votar nesta terça-feira apenas permite aos republicanos em sua busca pela reeleição de Donald Trump. Seu voto faz a diferença em novembro, não nesta terça-feira.”

É falso que a votação nas primárias de terça-feira impeça os eleitores de votar nas eleições gerais de Novembro.

Embora Biden não esteja em campanha em New Hampshire e o seu nome não apareça nas eleições primárias – devido ao facto de o presidente ter escolhido a Carolina do Sul como a primeira primária oficial do partido – os seus assessores estão a pedir aos eleitores que escrevam em seu nome.

A Casa Branca confirmou que Biden não gravou a ligação e disse que ela destacou os desafios das tecnologias emergentes, especialmente antes das eleições presidenciais de novembro.

A secretária de imprensa da Casa Branca, Karine Jean-Pierre, disse: “O presidente deixou claro que existem riscos associados aos deepfakes. Imagens falsas e desinformação podem ser amplificadas por tecnologias emergentes”.

Preocupação com o uso de IA na interferência eleitoral

O procurador-geral de New Hampshire, John Formella, disse que a mensagem gravada parecia ser uma tentativa ilegal de interromper e suprimir a votação, acrescentando que os eleitores deveriam “desconsiderar completamente o conteúdo desta mensagem”.

propagação do IA generativaQue pode criar texto, fotos e vídeos em resposta a solicitações, há entusiasmo sobre o seu potencial, bem como receios de que possa tornar os empregos obsoletos e possa ser usado para interferir nas eleições.

Esta tecnologia tem sido usada para espalhar desinformação com áudio deepfake nas eleições da Eslováquia a Taiwan O líder trabalhista, Sir Keir Starmer, será pego abusando de funcionários do partido Postado no primeiro dia da conferência do Partido Trabalhista.

Consulte Mais informação:
O mundo está enfrentando o maior ano eleitoral de todos os tempos – especialistas em IA estão soando o alarme
Revelado: Quantos empregos serão afetados pela IA?
12 desafios que ‘devem ser resolvidos’ com IA

Use o navegador Chrome para um player de vídeo mais acessível

PM elogia acordo ‘histórico’ sobre IA

‘A maior ameaça à democracia’?

“Esta não é a primeira vez que a tecnologia de IA é usada para imitar um político e não será a última”, alertou Arshin Adib-Moghadam, professor de Pensamento Global e Filosofia Comparada na SOAS, Universidade de Londres.

Os sistemas de IA estão “se tornando cada vez mais adeptos da criação de deepfakes incrivelmente realistas”, disse ele à Sky News, acrescentando que é possível criar um deepfake simples, no qual uma narração é combinada com um vídeo, “qualquer pessoa online em um minuto. “.

O professor Adeeb-Moghadam disse que seu livro, Is Artificial Intelligence Racist? O argumento central é que “as tecnologias de IA utilizadas para fins nefastos representam a maior ameaça à democracia e à segurança humana em geral”.

Ele disse: “Desde o escândalo Cambridge Analytica, sabemos que os sistemas de IA podem facilmente traduzir nossos dados pessoais em propaganda incrivelmente direcionada e atualizada, fazendo com que 1984 de Orwell pareça uma paródia inofensiva”. “Assim, o uso criminoso da tecnologia de IA está emergindo como a maior ameaça às nossas tão queridas liberdades.”

Source link

The post Robocall falso de Joe Biden gerado por IA diz às pessoas para não votarem em New Hampshire Notícias americanas appeared first on Sempre Atualizado.

Source: News

Add a Comment

Your email address will not be published. Required fields are marked *