IA e a erosão da verdade e da confiança
A inteligência artificial (IA) está a transformar o tecido social de forma profunda, redesenhando a maneira como percebemos a verdade e como estabelecemos confiança.
Ao longo da história, a verdade tem sido construída a partir de um esforço coletivo de verificação, diálogo e consenso, sustentada por instituições que garantiam a credibilidade da informação – da ciência aos órgãos de comunicação social.
A confiança, por sua vez, tem sido a base das interações humanas, tanto no âmbito pessoal como no coletivo, fortalecida por essas mesmas estruturas de autoridade.
Com o avanço da IA, essas noções começam a ser erodidas e, segundo Yuval Noah Harari, tal irá acontecer com consequências difíceis de prever para a humanidade.
Algoritmos sofisticados não só aceleram o fluxo de informações, mas também criam realidades alternativas com uma facilidade sem precedentes.
Modelos geradores de texto, voz e imagem, como os que replicam com perfeição discursos humanos ou recriam acontecimentos fictícios, tornam cada vez mais difícil distinguir o que é real do que é fabricado.
A capacidade de manipular a verdade com IA coloca em risco a própria ideia de uma “verdade objetiva”, já que diferentes versões dos fatos podem coexistir, disputando legitimidade.
No futuro, o conceito de confiança passará por uma metamorfose.
À medida que as interações humanas se tornam mediadas por máquinas e algoritmos, as pessoas poderão questionar até que ponto a confiança, anteriormente baseada na palavra e nas relações humanas, será transferida para sistemas não-humanos.
As decisões automatizadas, a manipulação de perceções e a possível utilização de IA para fins menos éticos introduzem uma incerteza que pode minar a coesão social.
Neste panorama, a verdade deixa de ser um pilar fixo e passa a ser fluida, adaptável a interesses individuais ou coletivos, num ecossistema de informação descentralizada e fragmentada.
A questão central que emerge é: como navegaremos um futuro em que a verdade é uma moeda moldável e a confiança, tradicionalmente alicerçada em valores humanos, é colocada à prova por entidades artificiais?
A resposta talvez passe por redesenhar as nossas abordagens éticas e regulatórias, procurando equilibrar o potencial inovador da IA com a necessidade de preservar um espaço comum de realidade e confiança social.
Evidências resultantes da IA
Seguem-se alguns desenvolvimentos na inteligência artificial (IA) e no comportamento humano que podem contribuir para o fim da verdade, tal como a entendemos tradicionalmente:
Deepfakes
A IA é agora capaz de criar vídeos, imagens e áudios hiper-realistas que replicam vozes e rostos humanos com precisão.
Isto torna extremamente difícil distinguir o que é verdadeiro do que é fabricado, permitindo a criação de conteúdos falsos que parecem completamente reais.
Geração automática de notícias falsas
Modelos de IA, como os geradores de texto, conseguem produzir notícias ou narrativas convincentes que podem ser usadas para desinformação em massa, manipulando o público com conteúdos enganosos.
Manipulação de opinião por algoritmos
Plataformas de redes sociais utilizam IA para curar os conteúdos que os utilizadores veem, alimentando vieses e criando bolhas informativas, onde as pessoas apenas são expostas a informações que confirmam as suas crenças prévias, distorcendo a perceção da realidade.
Evolução dos bots
Bots equipados com IA são cada vez mais sofisticados, interagindo online de formas que parecem genuinamente humanas.
Podem disseminar desinformação em escala, influenciando debates e confundindo o público sobre o que é verdade.
IA criativa (textos, arte, áudio)
A IA é agora capaz de criar não apenas dados objetivos, mas também peças criativas e narrativas inteiras que imitam o estilo humano, obscurecendo a fronteira entre o que é produzido por humanos e o que é gerado artificialmente.
Falhas na transparência algorítmica
A falta de transparência sobre como os algoritmos de IA tomam decisões ou criam conteúdos pode tornar difícil verificar a sua veracidade.
Decisões automatizadas baseadas em algoritmos “caixa preta” podem distorcer factos e informações sem que o público tenha meios de entender ou corrigir esses erros.
Simulação de personalidade e comportamento humano
IA que simula personalidades ou manipula interações sociais pode criar “falsos interlocutores” nos quais as pessoas confiam, mas que são meras construções programadas para influenciar ou manipular.
Modelos de linguagem que confundem factos e ficção
Ferramentas como o GPT-3, ou outros grandes modelos de linguagem, têm a capacidade de gerar texto convincente, mas podem misturar informações factuais com erros ou ficções, sem que os leitores possam facilmente distinguir o que é correto.
Automatização de “troll farms”
A IA pode ser usada para automatizar a criação de perfis falsos e comentários em massa, manipulando discussões online e criando a ilusão de consenso popular em torno de ideias falsas ou divisivas.
IA usada em manipulação política e eleitoral
Sistemas de IA estão a ser cada vez mais usados em campanhas políticas para segmentar eleitores com informações altamente personalizadas e, muitas vezes, enganosas, exacerbando a desinformação em tempos críticos como eleições.
Manipulação de dados em investigações científicas
A IA pode ser usada para alterar ou falsificar dados em relatórios científicos, criando resultados enganosos que parecem legítimos e, assim, distorcendo a perceção pública da ciência e dos factos.
Desinformação em escala massiva via bots sociais
Bots com IA são capazes de disseminar desinformação em larga escala em plataformas de redes sociais, saturando o espaço público com falsidades a um ritmo impossível de ser controlado pelas instituições de verificação de factos.
IA em processos judiciais
O uso de IA para automatizar processos judiciais pode levar a decisões baseadas em modelos algorítmicos imperfeitos ou preconceituosos, minando a verdade legal e o direito a julgamentos justos.
Hiperpersonalização de publicidade enganosa
A IA permite criar anúncios extremamente personalizados, capazes de manipular perceções de forma invisível, ao segmentar grupos específicos com informações falsas ou enganosas adaptadas aos seus interesses.
Criação de “memórias falsas” através de IA
Tecnologias de realidade aumentada e virtual baseadas em IA podem criar experiências tão realistas que levam os utilizadores a acreditar em eventos ou narrativas que nunca aconteceram, confundindo perceções de memória.
IA aplicada a algoritmos de recomendação de notícias
Sistemas de recomendação podem priorizar conteúdos sensacionalistas ou enganosos, levando os utilizadores a consumir informações falsas que se alinham com as suas preferências, criando uma realidade distorcida.
Chatbots de atendimento ao cliente
Algumas empresas estão a usar IA em interações com clientes sem revelar que os clientes estão a falar com máquinas.
Se mal utilizados, esses chatbots podem fornecer informações enganosas ou incompletas, comprometendo a confiança e a veracidade na relação empresa-consumidor.
Simulações hiper-realistas de ambientes e eventos históricos
A IA aplicada a simulações virtuais pode recriar acontecimentos históricos de maneira tão realista que os utilizadores podem acabar por acreditar em versões alternativas ou manipuladas dos eventos, o que pode reescrever a perceção coletiva do passado.
A IA na criação de perfis psicológicos
A capacidade da IA de analisar grandes volumes de dados para criar perfis psicológicos permite que empresas ou governos manipulem a perceção de indivíduos ou grupos, moldando crenças e comportamentos sem que estes percebam.
Assistentes de IA que propagam informações enviesadas
Assistentes virtuais como Siri, Alexa, e Google Assistant podem apresentar respostas enviesadas ou incorretas, com base nos dados com que foram treinados, levando as pessoas a acreditar em informações erradas.
A IA para censura e manipulação de conteúdos
Regimes autoritários podem usar IA para censurar seletivamente a informação disponível, criando uma realidade alternativa para os cidadãos, em que apenas “verdades” aprovadas são acessíveis e qualquer versão alternativa é bloqueada.
Algoritmos de moderação automática de conteúdo
A IA usada para moderar conteúdo em plataformas online pode cometer erros, removendo ou promovendo informações incorretamente.
Isso pode levar à distorção do discurso público e à propagação de falsidades enquanto factos são censurados.
Técnicas de IA para adulteração de provas
A IA pode ser usada para manipular digitalmente provas, como fotografias ou gravações de áudio e vídeo, dificultando a verificação da autenticidade de evidências em contextos legais ou mediáticos.
Automatização da escrita de ficção científica
IAs podem ser programadas para criar narrativas fictícias tão bem fundamentadas e verossímeis que o público possa confundir estas histórias com predições ou factos científicos, erodindo a distinção entre ficção e realidade.
IA aplicada à criação de influenciadores virtuais
Influenciadores digitais criados por IA, que parecem pessoas reais, podem espalhar informações falsas ou agendas manipulativas, já que os seguidores podem não perceber que estão a ser influenciados por entidades artificiais e não por humanos.
IA em aplicações de reconhecimento facial falsas
Tecnologias de reconhecimento facial baseadas em IA podem ser usadas para identificar pessoas de forma errada ou associá-las a crimes ou eventos que não cometeram, comprometendo a verdade judicial e social.
IA na produção de “notícias falsas personalizadas”
A IA pode ser usada para criar desinformação personalizada, adaptada aos interesses e crenças individuais de cada pessoa, tornando a desinformação mais eficaz ao alinhar-se com os preconceitos pessoais e reforçar falsidades sem serem questionadas.
Desenvolvimentos no comportamento humano
Polarização e tribalismo
O comportamento humano nas redes sociais está cada vez mais polarizado.
As pessoas tendem a acreditar e a partilhar informações que reforçam as suas próprias visões, ignorando factos ou análises contraditórias, o que contribui para a formação de “verdades paralelas” entre grupos com diferentes visões do mundo.
Desvalorização das fontes tradicionais de autoridade
As instituições que tradicionalmente validavam a verdade, como a ciência, o jornalismo ou o sistema judiciário, têm sido cada vez mais contestadas.
Este ceticismo generalizado mina a confiança nas fontes de informação confiáveis.
Clickbait e economia da atenção
A pressão para capturar a atenção no mundo digital leva à disseminação de conteúdos sensacionalistas e pouco rigorosos, que priorizam cliques e partilhas em detrimento da veracidade e da precisão.
Normalização da desinformação
Com a proliferação de fake news e teorias da conspiração, a sociedade tem vindo a aceitar, cada vez mais, a ideia de que a verdade é relativa ou manipulável, o que facilita a propagação de informações erradas ou enganosas.
Propagação em tempo real
As redes sociais e os mecanismos de partilha em tempo real aceleram a disseminação de desinformação antes que ela possa ser corrigida, criando narrativas falsas que ganham força antes de serem desmentidas.
Desconfiança nas elites e na media
A crescente desconfiança nas elites políticas e na grande media cria um ambiente onde informações não verificadas ou teorias da conspiração encontram maior acolhimento, pois as pessoas procuram fontes alternativas que validem as suas suspeitas.
Personalização extrema de conteúdos
A personalização de notícias e conteúdos com base em preferências individuais pode criar realidades fragmentadas, onde diferentes grupos de pessoas vivem em mundos informativos separados, cada um com a sua própria versão dos factos.
Cepticismo generalizado face às evidências
O aumento da exposição à desinformação e a falha em educar o público sobre pensamento crítico contribuem para uma desconfiança generalizada em fontes de informação tradicionalmente confiáveis, incluindo a ciência e o jornalismo.
Propagação de teorias da conspiração
Com a ajuda das redes sociais, teorias da conspiração estão a proliferar rapidamente.
A aceitação destas narrativas alternativas está a fragmentar a noção de uma verdade comum, com diferentes segmentos da população a acreditar em factos completamente divergentes.
Perda de incentivo para verificar fontes
O ritmo acelerado de consumo de conteúdos digitais, associado à falta de motivação para verificar fontes, leva a que mais pessoas partilhem e aceitem informações falsas sem questionar a sua veracidade.
Imitação e reforço de comportamentos populistas
Políticos e figuras públicas, ao perceberem a eficácia da manipulação da verdade para fins populistas, adotam comportamentos que distorcem factos, criando uma cultura onde a verdade é subvalorizada em nome da conveniência política.
Gamificação da desinformação
Algumas plataformas incentivam os utilizadores a criar e partilhar conteúdos virais, muitas vezes premiando o envolvimento com base em cliques ou partilhas, independentemente da veracidade do conteúdo., o que promove a disseminação de informações falsas ou exageradas.
Relativismo pós-moderno
O aumento da ideia de que “não há verdades objetivas, apenas narrativas” tem enfraquecido a crença de que existem factos verificáveis e estáveis, contribuindo para a aceitação de múltiplas realidades concorrentes.
Empresas a fabricar narrativas de marca
Muitas empresas adotam narrativas de marketing que embelezam ou distorcem a verdade sobre os seus produtos ou práticas, levando os consumidores a acreditar em realidades exageradas ou falsas.
Normalização do sensacionalismo nos media
Para competir num mercado de atenção saturado, os media tradicionais tendem a recorrer ao sensacionalismo, exagerando ou distorcendo histórias para atrair leitores, à custa da verdade e precisão.
Cultura de “infotenimento”
O entretenimento e a informação estão a ser cada vez mais mesclados.
Programas de comédia, reality shows e outros formatos populares influenciam perceções públicas, muitas vezes apresentando informações de forma imprecisa, mas envolvente.
Influência de celebridades e influencers
A ascensão das redes sociais deu voz a influencers e celebridades, que muitas vezes promovem desinformação ou informações imprecisas, seja sobre saúde, política ou ciência, devido à sua grande influência sobre grandes audiências.
Espaços online anónimos e sem regulação
Fóruns e plataformas onde o anonimato é garantido incentivam a disseminação de informações falsas, já que os indivíduos não são responsabilizados pelas suas ações, o que cria ambientes onde a verdade e a responsabilidade são secundárias.
Negação sistemática de especialistas
O comportamento de descredibilizar sistematicamente especialistas ou pessoas com conhecimento profundo de um assunto cria uma cultura onde a opinião e o facto são colocados em pé de igualdade, enfraquecendo a verdade objetiva.
A proliferação de “tribos de informação”
As pessoas estão a agrupar-se em comunidades digitais com visões de mundo semelhantes, criando “tribos” informacionais, onde qualquer facto que contradiga as suas crenças é rejeitado, mesmo que comprovado.
Isso fragmenta a verdade em múltiplas realidades paralelas.
Proliferação de pseudo-ciências nas redes sociais
Ideias pseudocientíficas, que desafiam o conhecimento consensual sem evidências rigorosas, estão a ganhar popularidade nas redes sociais, o que mina a confiança no método científico e promove visões distorcidas da verdade.
Fadiga informacional
O excesso de informação, muitas vezes contraditória, gera uma saturação cognitiva nas pessoas, levando-as a desligar-se de fontes de informação credíveis e a tornar-se mais vulneráveis à aceitação de falsidades por pura exaustão.
A valorização da autenticidade sobre a verdade
Em vez de se focarem na verdade objetiva, muitas pessoas estão a valorizar a “autenticidade” percebida – ou seja, se alguém parece genuíno ou emocionalmente honesto – o que pode levar à aceitação de informações incorretas que soem autênticas, independentemente dos factos.
Teorias de negação de factos históricos
Movimentos de negação de eventos históricos, como o negacionismo do Holocausto ou das alterações climáticas, utilizam a proliferação de conteúdos online para questionar verdades bem estabelecidas, levando à reescrita de factos históricos para audiências vulneráveis.
Influência das redes sociais nas eleições
As redes sociais, com base na manipulação algorítmica e comportamental, podem influenciar diretamente os resultados eleitorais, disseminando desinformação estratégica que mina a verdade no processo democrático.
Cultura do imediatismo
A procura por respostas rápidas e imediatas, em vez de pesquisa e reflexão cuidadosas, leva as pessoas a aceitarem a primeira informação que encontram, independentemente da sua veracidade.
Incentivos financeiros para a produção de desinformação
A criação de conteúdos falsos pode ser lucrativa, tanto através de anúncios como de financiamento oculto de entidades que beneficiam da manipulação de massas.
Isso encoraja a proliferação de informações erradas e desestabiliza a verdade em busca de ganhos económicos.
Conclusão
À medida que a inteligência artificial se integra de forma profunda nas estruturas sociais, económicas e cognitivas da humanidade, o conceito de verdade, tal como foi concebido durante milénios, começa a desmoronar-se.
A IA amplifica a capacidade de moldar realidades alternativas com uma precisão inquietante, apagando a linha que separa o que é factualmente verdadeiro do que é fabricado.
Em tempos, a verdade era um pilar coletivo, construído sobre consensos sociais, culturais e científicos.
Agora, porém, ela está a ser pulverizada em milhares de fragmentos, cada um refletindo uma perceção subjetiva, alimentada por algoritmos que priorizam a personalização e o estímulo emocional sobre a objetividade.
A confiança, outrora construída sobre o entendimento comum e a partilha de factos verificáveis, está a ser corroída pela fluidez da informação digital.
As pessoas não sabem mais em que podem confiar; a cada momento, uma nova camada de complexidade ou manipulação é revelada, retirando ainda mais do que julgavam ser seguro.
Esta crise de confiança está não só a fragmentar o tecido social, mas também a reconfigurar a própria essência da interação humana, que passa a operar num estado permanente de dúvida.
A IA, ao redefinir o que significa “saber” e “acreditar”, apresenta-nos um paradoxo fundamental: ao mesmo tempo que nos aproxima da simulação perfeita da verdade, afasta-nos irremediavelmente da sua essência.
No futuro, a verdade poderá não ser apenas difícil de discernir; poderá tornar-se irrelevante, substituída pela influência e pelo controlo da narrativa.
Em última análise, o futuro marcado pela IA não será apenas uma era de inovação tecnológica, mas um tempo em que as sociedades humanas terão de reavaliar o próprio significado da verdade e da confiança – e se estas ainda podem, de facto, ser restauradas.