bestcasinowebsitesonline -Traduzido do The Conversation Continua após a publicidade Será que organizações poderiam usar

Inteligência Artbestcasinowebsitesonline -ificial nas Eleições- o Domínio

Traduzido do TheênciaArtificialnasEleiçõesoDomíbestcasinowebsitesonline - Conversation

Continua após a publicidade

Será que organizações poderiam usar modelos de linguagem de IA, como o ChatGPT, para induzir eleitores a se comportarem de maneiras específicas?

Esta pergunta foi feita pelo Senador Josh Hawley ao CEO da OpenAI, Sam Altman, em uma audiência do Senado dos EUA sobre inteligência artificial em 16 de maio de 2023. Altman respondeu que está de fato preocupado com a possibilidade de que algumas pessoas usem modelos de linguagem para manipular, persuadir e se envolver em interações com eleitores de forma individual.

Altman não entrou em detalhes, mas ele poderia estar pensando em algo como este cenário: pense que tecnopolíticos em breve desenvolverão uma máquina chamada Clogger, uma campanha política em uma caixa preta. A Clogger busca incansavelmente apenas um objetivo: maximizar as chances de seu candidato (a campanha que compra os serviços da Clogger Inc.) vencer uma disputa eleitoral.

Enquanto plataformas como Facebook, Twitter e YouTube usam formas de IA para fazer com que os usuários passem mais tempo em seus sites, a IA da Clogger teria um objetivo diferente: mudar o comportamento das pessoas quando chega o momento de votar.

Como a Clogger funcionaria

Como cientista político e jurista que estudamos a interseção entre tecnologia e democracia, acreditamos que algo como a Clogger poderia usar automação para aumentar drasticamente a escala e potencialmente a eficácia da manipulação de comportamento e técnicas de microdirecionamento que vêm sendo usadas por campanhas políticas desde o início dos anos 2000. Da mesma forma que anunciantes agora usam seu histórico de navegação e mídias sociais para direcionar anúncios comerciais e políticos de forma individual, a Clogger prestaria atenção a você — e a centenas de milhões de outros eleitores — individualmente.

Leia mais: Pesquisadores brasileiros criam ferramenta de IA que pode ajudar no diagnóstico de depressão

Ela oferecerá três avanços em relação ao estado atual da manipulação algorítmica de comportamento de última geração. Primeiro, seu modelo de linguagem geraria mensagens — textos, postagens de mídias sociais e e-mails, talvez incluindo imagens e vídeos — personalizados especificamente para você. Enquanto anunciantes veiculam estrategicamente um número relativamente pequeno de anúncios, modelos de linguagem como o ChatGPT podem gerar inúmeras mensagens exclusivas para você individualmente — e milhões para outras pessoas — ao longo de uma campanha.

Em segundo lugar, a Clogger usaria uma técnica chamada aprendizado por reforço para gerar uma sequência de mensagens que se tornam cada vez mais eficazes em mudar o seu voto. O aprendizado por reforço é uma abordagem de tentativa e erro para aprendizado de máquina, na qual um computador realiza ações e recebe feedback sobre o que funciona melhor para atingir um objetivo. O aprendizado por reforço foi usado por máquinas que podem jogar Go, xadrez e diversos videogames melhor do que qualquer ser humano.

Em terceiro lugar, ao longo de uma campanha, as mensagens da Clogger podem evoluir para levar em consideração suas respostas às mensagens anteriores da máquina e o que ela aprendeu sobre como mudar a opinião de outras pessoas. A Clogger seria capaz de manter "conversas" dinâmicas com você — e milhões de outras pessoas — ao longo do tempo. As mensagens da Clogger seriam semelhantes aos anúncios que o seguem por diferentes sites e mídias sociais.

A natureza da IA

Mais três características — ou bugs — são merecedoras de atenção.

Primeiro, pode ou não haver conteúdo político nas mensagens enviadas pela Clogger. O único objetivo da máquina é maximizar a parcela de votos, e ela provavelmente criaria estratégias para atingir esse objetivo nas quais nenhum ativista humano teria pensado.

Uma possibilidade é enviar informações aos eleitores provavelmente adversários sobre paixões não políticas que eles têm por esportes ou entretenimento para sepultar a mensagem política que receberão. Outra possibilidade é enviar mensagens desconcertantes — por exemplo, anúncios de incontinência — programados para coincidir com as mensagens dos adversários. Outra é manipular os círculos de amigos de mídias sociais dos eleitores para dar a impressão de que seus círculos sociais apoiam seu candidato.

Em segundo lugar, a Clogger não considera a verdade. Na verdade, ela não tem como saber o que é verdadeiro ou falso. As "alucinações" do modelo de linguagem não são um problema para esta máquina, já que seu objetivo é mudar seu voto, não fornecer informações precisas.

Em terceiro lugar, por ser uma espécie de IA de caixa preta, as pessoas não teriam como saber quais estratégias ela está usando.

Leia mais: Chat GPT e o sofrimento da dúvida profissional no Direito

Cloggeracia

Se a campanha presidencial republicana implementasse o Clogger em 2024, a campanha democrata provavelmente seria obrigada a responder da mesma forma, talvez com uma máquina semelhante. Chame-a de Dogger. Se os gerentes de campanha pensassem que essas máquinas seriam eficazes, a disputa presidencial poderia se resumir a Clogger x Dogger, e o vencedor seria o cliente da máquina mais eficaz.

Cientistas políticos e especialistas teriam muito a dizer sobre por que uma ou outra IA prevaleceu, mas provavelmente ninguém realmente saberia. O presidente terá sido eleito não porque suas propostas ou ideias políticas convenceram mais americanos, mas porque ele ou ela tinha a IA mais eficaz. O conteúdo que venceu o dia teria vindo de uma IA focada apenas na vitória, sem ideias políticas próprias, e não de candidatos ou partidos.

Nesse sentido, uma máquina teria vencido a eleição em vez de uma pessoa. A eleição não seria mais democrática, mesmo que todas as atividades ordinárias da democracia – os discursos, os anúncios, as mensagens, a votação e a apuração dos votos – tenham ocorrido.

O presidente eleito pela IA poderia então seguir um de dois caminhos. Ele ou ela poderia usar a capa da eleição para seguir as políticas do Partido Republicano ou Democrata. Mas como as ideias partidárias podem ter pouco a ver com o motivo pelo qual as pessoas votaram da maneira que votaram – Clogger e Dogger não se importam com opiniões políticas – as ações do presidente não refletiriam necessariamente a vontade dos eleitores. Os eleitores teriam sido manipulados pela IA em vez de escolher livremente seus líderes e políticas políticas.

Outro caminho é o presidente seguir as mensagens, comportamentos e políticas que a máquina prevê que maximizarão as chances de reeleição. Nesse caminho, o presidente não teria nenhuma plataforma ou agenda específica além de manter o poder. As ações do presidente, guiadas por Clogger, seriam as mais propensas a manipular os eleitores em vez de servir a seus interesses genuínos ou mesmo à própria ideologia do presidente.

Evitando a Cloggeracia

Seria possível evitar a manipulação eleitoral da IA se todos os candidatos, campanhas e consultores renunciassem ao uso de tal IA política. Acreditamos que isso seja improvável. Se caixas-pretas politicamente eficazes fossem desenvolvidas, a tentação de usá-las seria quase irresistível. De fato, os consultores políticos podem ver o uso dessas ferramentas como uma exigência em sua responsabilidade profissional de ajudar seus candidatos a vencer. E uma vez que um candidato usa uma ferramenta tão eficaz, dificilmente se pode esperar que os oponentes resistam se desarmando unilateralmente.

Leia mais: Trabalho e criatividade na era da inteligência artificial

A proteção aprimorada da privacidade ajudaria. O Clogger dependeria do acesso a grandes quantidades de dados pessoais para atingir indivíduos, criar mensagens personalizadas para persuadi-los ou manipulá-los e rastreá-los e redirecioná-los ao longo de uma campanha. Cada pedacinho dessa informação que as empresas ou formuladores de políticas negam à máquina a tornaria menos eficaz.

Outra solução está nas comissões eleitorais. Eles poderiam tentar proibir ou regular severamente essas máquinas. Há um debate acirrado sobre se esse discurso “replicante”, mesmo que de natureza política, pode ser regulamentado. A extrema tradição de liberdade de expressão dos EUA leva muitos acadêmicos importantes a dizer que não.

Mas não há razão para estender automaticamente a proteção da Primeira Emenda ao produto dessas máquinas. A nação pode muito bem optar por conceder direitos às máquinas, mas essa deve ser uma decisão baseada nos desafios de hoje, não na suposição equivocada de que as opiniões de James Madison em 1789 pretendiam ser aplicadas à IA.

Os reguladores da União Europeia estão indo nessa direção. Os formuladores de políticas revisaram o rascunho do Parlamento Europeu de sua Lei de Inteligência Artificial para designar “sistemas de IA para influenciar os eleitores em campanhas” como de “alto risco” e sujeitos a escrutínio regulatório.

Uma medida constitucionalmente mais segura, embora menor, já adotada em parte pelos reguladores europeus da Internet e na Califórnia, é proibir que os bots se façam passar por pessoas. Por exemplo, a regulamentação pode exigir que as mensagens de campanha venham com isenções de responsabilidade quando o conteúdo delas for gerado por máquinas e não por humanos.

Isso seria como os requisitos de isenção de responsabilidade de publicidade - "Pago pelo Sam Jones for Congress Committee" - mas modificado para refletir sua origem de IA: "Este anúncio gerado por IA foi pago pelo Sam Jones for Congress Committee". Uma versão mais forte poderia exigir: "Esta mensagem gerada por IA está sendo enviada a você pelo Sam Jones for Congress Committee porque Clogger previu que isso aumentará suas chances de votar em Sam Jones em 0,0002%". No mínimo, acreditamos que os eleitores merecem saber quando é um bot falando com eles, e eles também devem saber por quê.

A possibilidade de um sistema como Clogger mostra que o caminho para o desempoderamento coletivo humano pode não exigir alguma inteligência artificial sobre-humana. Isso pode exigir apenas ativistas e consultores ansiosos que tenham novas ferramentas poderosas que possam efetivamente apertar os muitos botões de milhões de pessoas.

Archon Fung é professor de Cidadania e Autogoverno na Harvard Kennedy School

Lawrence Lessig é professor de Direito e Liderança na Harvard University

Edição: Glauco Faria


BdF
  • Quem Somos

  • Parceiros

  • Publicidade

  • Contato

  • Newsletters

  • Política de Privacidade

Redes sociais:


Todos os conteúdos de produção exclusiva e de autoria editorial do Brasil de Fato podem ser reproduzidos, desde que não sejam alterados e que se deem os devidos créditos.

Visitantes, por favor deixem um comentário::

© 2024.sitemap