Benefícios e Perigos da Inteligência Artificial

Quais são os pontos positivos e negativos que os cristãos devem atentar quando pensamos no uso de programas de busca com inteligência artificial, cada vez mais populares?

Discute-se muito atualmente sobre o ChatGPT, uma nova aplicação da assim chamada inteligência artificial (IA), acessível a todos pela internet, bem como de outros sistemas parecidos. Considerando bem, trata-se na verdade de um recurso de busca melhorado para conteúdo da internet. No entanto, além disso, ele ainda é capaz de resumir seus resultados de um modo fascinante em um texto gerado especificamente. O texto gerado em resposta a uma pergunta formulada pelo usuário não é um simples plágio copiando segmentos de texto de outros. Ele parece original, porque os resultados da pesquisa também podem ser emitidos em diferentes estilos de redação ou até em forma de poesia, embora não haja por trás nenhuma interferência humana específica. Quanto à linguagem, algumas respostas ainda parecem um tanto desajeitadas, mas há versões melhoradas em desenvolvimento, o que, porém, o próprio usuário também pode fazer com o texto proposto.

Chances e riscos

Para qualquer um que de algum modo participe da elaboração de textos, o ChatGPT representa um auxílio técnico que permitirá abreviar bastante eventuais pesquisas na internet. Por um lado, isso evidentemente facilita muito o trabalho. Por outro, aumenta com isso a pressão profissional, porque a partir daí se esperará que, com essa ajuda, os textos possam ser fornecidos mais rapidamente do que até então. Seja como for, é necessário confiar nas fontes selecionadas pelo programa, o que em certos casos pode ser bastante parcial. Além disso existe o perigo de o programa supervalorizar opiniões de origem muito frequente ou proeminente, enfatizando assim ideias unilaterais ou de formulação particularmente midiática.

No futuro, principalmente estudantes fracos ou jornalistas sob pressão de tempo lançarão mão de programas como o ChatGPT. Com isso, obterão então resultados rápidos e possivelmente representativos, mas não saberão mais como se formaram as opiniões expressas ali ou em que medida são confiáveis.

Quem doravante quiser utilizar o ChatGPT de forma inteligente, precisará formular perguntas bem objetivas e elaboradas com precisão. Se, por exemplo, um teólogo quiser saber quando e por quem foi escrito o evangelho de João, receberá a uma pergunta simples apenas a resposta usual, mas biblicamente crítica. Portanto, ele deveria sondar com mais precisão a “autoria do evangelho de João, posição evangélica conservadora” ou “autoria, diferentes interpretações”. Depois terá de confiar que os dados relevantes para ele também tenham uma posição suficientemente elevada nos programas de busca para que sejam mencionados no texto gerado para ele.

É claro que, idealmente, programas à base de inteligência artificial como o ChatGPT facilitam a rotina de pesquisa e a apresentação do estado atualizado desta. No entanto, justamente esse processo muitas vezes trabalhoso é absolutamente necessário para que, continuando a pensar criativamente, a pessoa perceba e entenda a multiplicidade e complexidade do seu tema, inclusive todos os fatos e contra-argumentos realmente relevantes.

Justamente esse processo muitas vezes trabalhoso é absolutamente necessário para que, continuando a pensar criativamente, a pessoa perceba e entenda a multiplicidade e complexidade do seu tema.

Os problemas essenciais de programas como o ChatGPT consistem (1) no inevitável aumento de plágios indiretos, que, porém, são bem mais difíceis de identificar, e (2) num decréscimo da capacidade analítica e avaliação pessoal de questões mais complexas. Além disso, pode acontecer facilmente que as informações objetivas necessárias para a avaliação sejam ainda mais intensamente excluídas ou não assimiladas.

Por se saber que será impossível condenar novas tecnologias, será racional integrá-las de forma inteligente. Assim, por exemplo, alunos deverão examinar e corrigir as dissertações geradas pelo ChatGPT. Os políticos da área educacional vêm repetindo como um mantra que o conhecimento factual estaria obsoleto. O que importa não será mais decorar fatos, mas avaliá-los. No entanto, deve ficar claro que só quem dispuser de um amplo conhecimento factual reconhecerá erros de forma confiável, podendo avaliar conclusões. Quanto mais alunos recorrerem ao ChatGPT e a recursos similares, tanto menos referenciais para verificação eles terão disponíveis por experiência própria. Quem então não conhecer com precisão os fatos, não poderá controlar e corrigir de forma confiável os textos produzidos pelo ChatGPT. Alunos pouco motivados nem mesmo empreenderão o cansativo e demorado processo de aprendizado e exame, porque poderão elaborar de modo muito mais simples e rápido seus trabalhos, graças aos abundantes recursos da internet.

Ainda há professores com esperança de poderem distinguir, com base em vocabulário e estilo, entre textos autênticos e os elaborados por inteligência artificial, mas é claro que isso só funcionará se houver suficiente material comparativo à disposição, o que não será o caso daqueles que, desde o início, lançarem mão do ChatGPT ou de recursos similares. Além disso, basta uma adaptação relativamente modesta para introduzir também tais particularidades num programa. Futuramente, será bem mais difícil para os alunos aprenderem e exercitarem por conta própria comparações, avaliações e verificações, porque esses processos indispensáveis para pensar e pesquisar serão disponibilizados de modo muito mais confortável pela inteligência artificial.

Será bem mais difícil para os alunos aprenderem e exercitarem por conta própria comparações, avaliações e verificações.

Também será preciso contrapor a uma euforia apressada que, embora com o ChatGPT e programas similares se formulem constantemente novos textos, na verdade não se produz nada efetivamente novo. De certo modo, pode-se acelerar mais uma vez consideravelmente a produção de novos conteúdos midiáticos por meio de programas como o ChatGPT. Por fim, provavelmente nos encontraremos em uma corrente informativa interminável, mas barbaramente veloz, conforme alguns críticos culturais pós-modernos já presumem há algum tempo. Apresentam-se continuamente novas matérias ao público, mas que apenas reformulam informações já conhecidas, apresentando-as de forma otimizada para o consumo. Já atualmente muitos usuários da internet andam continuamente em círculos, porque os correspondentes programas analíticos lhes recomendam continuamente aquelas matérias que correspondam aos interesses e às opiniões em que se fixaram. O ChatGPT reforçará isso mais ainda.

Depois de uma onda ainda não superada de plágios, ghostwriters e resultados de pesquisa falsificados, a inteligência artificial fornece agora mais um recurso para apresentar de forma vistosa produções pseudocientíficas. Como então outros cientistas recorrerão em seu trabalho a tais resultados não confiáveis, existe o perigo de mais potencialização de “resultados de pesquisa” duvidosos. Estes, naturalmente, também influenciarão decisões particulares e políticas. Além disso, programas como o ChatGPT poderão incrementar ainda mais a enxurrada de publicações científicas que agora já é quase impossível visualizar plenamente, porque com isso se torna mais fácil produzir novos artigos. Também isso dificultará, mais do que ajudará, o trabalho científico efetivo.

As empresas por trás do ChatGPT provavelmente evitarão assumir a responsabilidade por todas as opiniões e afirmações formuladas pelo seu programa. Como o programa não dispõe, nem poderia dispor, de ética, moral ou capacidade autêntica de crítica próprias, sempre acontecerá de produzir opiniões erradas ou tendenciosas, ou de tirar conclusões erradas. Opiniões diferentes desafiadoras e estimulantes, bem como avaliações próprias e destaques na exposição de alguma questão serão fortemente inibidas na aplicação desses programas.

No futuro, tais programas voltados à inteligência artificial facilitarão ainda mais a promoção maciça ou a total inibição de determinadas opiniões. Empresas e governos poderiam adaptar o correspondente programa de chat a seu critério e passar a liberar para um resumo artificialmente gerado as páginas de internet que lhes convenham. A verdade e sua busca serão então separadas ainda mais do livre julgamento pelo respectivo usuário do que jamais antes.

Mas não importa como você avalie isso em detalhe, não deveríamos alimentar ilusões sobre essa nova e nitidamente melhorada tecnologia de geração artificial de textos. Ela com certeza se imporá e será cada vez mais aperfeiçoada com todos os efeitos colaterais imagináveis.

Acompanhamento crítico

A aplicação do ChatGPT levanta novamente importantes questões de ética tecnológica. Em outros segmentos da vida, que até há pouco dificilmente se considerariam possíveis, o ser humano vem abrindo mão da sua autonomia e da sua visão individual. Com isso, desaparece também mais uma parte da sua responsabilidade. Quem responderá pelo suicídio de algum adolescente em razão de alguma carta produzida pelo ChatGPT, ou pela disseminação de alguma teoria de conspiração, ou até o desencadeamento de uma guerra? O ChatGPT e programas similares não têm consciência; mentira e verdade como valores morais não existem para eles. Também todas as possíveis consequências para a vida real pouco importam para a inteligência artificial. Programas de computador não sofrem, não podem ser torturados, nem passam fome.

O ChatGPT e programas similares não têm consciência; mentira e verdade como valores morais não existem para eles.

É mera questão de tempo até que textos gerados por via artificial venham a reduzir nitidamente não só a capacidade de aprendizado e de avaliação das pessoas, como também levarão a irritações, falsificações e conflitos na comunicação restante, acelerada pela internet. Este é, por um lado, um processo que amplifica a si mesmo. Por outro lado, é claro que também existem suficientes razões criminais e ideológicas para se aplicar essa tecnologia em interesse próprio.

Tendo em vista a rapidez do desenvolvimento desses recursos técnicos, torna-se necessário questionar os seus efeitos, a legitimidade ética e a possibilidade de controle, e esperar que surjam respostas satisfatórias para isso. Se tais novos desenvolvimentos não forem acompanhados adequadamente com a devida consideração das suas consequências, eles muito provavelmente também causarão danos significativos. O que atualmente já se pode prever é um decréscimo da motivação para o aprendizado, mais desemprego entre os produtores de textos, uma crescente dificuldade de discernir entre informações autênticas e fictícias e um decréscimo da responsabilidade por processos sociais desencadeados por relatórios protegidos por IA.

Quanto mais programas de computador coletarem, recombinarem e avaliarem informações, tanto mais importantes se tornarão os valores e as cosmovisões que os fundamentam. Por isso, a ampla dissolução de verdades de nível superior e validade universal no ambiente pós-moderno é um problema ainda maior. Quem já tiver desqualificado a verdade em geral – exceto a sua própria, que dispensa fundamentação – carecerá cada vez mais dos recursos para analisar e julgar racionalmente possibilidades, informações e conclusões.

Na discussão em torno da inteligência artificial, os cristãos devem, por um lado, cuidar para não se perder na já conhecida hostilização da tecnologia, nem, por outro, ignorar os nítidos problemas éticos desse tipo de produção de textos. Aqui se manifestam questões totalmente novas sobre autoria, verdade e responsabilidade sobre opiniões publicamente disseminadas, bem como pretensos resultados de aprendizado na escola, na faculdade e na vida profissional.

Na aplicação do ChatGPT, não se deve subestimar o perigo de mentiras e desinformação diretas ou da mera simulação de pesquisas e atividades próprias. Nesse aspecto, porém, os cristãos estão sujeitos a um claro compromisso bíblico, inclusive quando este está ligado a algum trabalho intelectual de grande porte. “No Dia do Juízo, as pessoas darão conta de toda palavra [falsa e] inútil que proferirem” (Mateus 12.36). Os crentes precisam manter a capacidade de sustentar pessoalmente e com convicção suas palavras e opiniões. “Finalmente, irmãos, tudo o que é verdadeiro, tudo o que é respeitável, tudo o que é justo, tudo o que é puro, tudo o que é amável, tudo o que é de boa fama, se alguma virtude há e se algum louvor existe, seja isso o que ocupe o pensamento de vocês” (Filipenses 4.8). Além disso, diante das crescentes interpretações virtuais da verdade, os cristãos estão sendo ainda mais desafiados a permitir que Deus ajuste continuamente os valores fundamentais e os padrões do seu pensamento. “E não vivam conforme os padrões deste mundo, mas deixem que Deus os transforme pela renovação da mente, para que possam experimentar qual é a boa, agradável e perfeita vontade de Deus” (Romanos 12.2).

Autor

  • Michael Kotsch é professor de teologia histórica e teologia sistemática na Bibelschule Brake, na Alemanha. Entre 1986 e 1991, estudou teologia na Staatsunabhängige Theologische Hochschule Basel, na Suíça. Autor de mais de 30 livros, também organiza grupos turísticos para visitar locais da história bíblica, como Israel, Jordânia e Grécia.

    Ver todos os posts

Artigos relacionados

Um grande desafio que atualmente contribui para a confusão religiosa no cristianismo ocidental é o humanismo secular. O que significa...

Diante de uma triste situação de violência na final do Campeonato Mineiro, podemos refletir sobre a questão da culpa, do...

Quando observamos o mundo ao redor, há motivos para se apavorar. No entanto, a profecia bíblica e a linguagem figurada...