Vaticano diz que IA tem 'sombra do mal' da desinformação e cita outros perigos
Novo texto sobre ética da IA, foi aprovado pelo Papa Francisco e divulgado nesta terça-feira (28).O Vaticano publicou uma nota em que pediu nesta terça-feira (28), que os governos acompanhem de perto o desenvolvimento da inteligência artificial (IA), e cita vários perigos representados pela tecnologia.
Segundo o Vaticano, o documento é dirigido a pais, professores, sacerdotes, bispos e a todos os que são chamados a educar e transmitir a fé, mas também àqueles que compartilham a necessidade de um desenvolvimento científico e tecnológico “a serviço da pessoa e do bem comum”.
Confira tabela e classificação dos campeonatos de futebol.
Em 117 parágrafos, a nota destaca os desafios e as oportunidades do desenvolvimento da Inteligência Artificial (IA) nos campos da educação, economia, trabalho, saúde, relações internacionais e interpessoais, além de contextos de guerra. Neste último, por exemplo, as potencialidades da IA – adverte a Nota – poderiam aumentar os recursos bélicos “muito além do alcance do controle humano”, acelerando “uma corrida desestabilizadora por armamentos com consequências devastadoras para os direitos humanos”.
A Nota examina, em seguida, os vários aspectos da vida em relação à IA. Inevitável é a referência à guerra. As “capacidades analíticas” da IA poderiam ser utilizadas para ajudar as nações a buscar paz e segurança, mas um “grave motivo de preocupação ética” são os sistemas de armas autônomas e letais, capazes de “identificar e atingir alvos sem intervenção humana direta” [100]. O Papa pediu com urgência o banimento de seu uso, como afirmou no G7 na Puglia: “Nenhuma máquina jamais deveria decidir tirar a vida de um ser humano”. Máquinas capazes de matar com precisão de forma autônoma e outras aptas à destruição em massa representam uma verdadeira ameaça para “a sobrevivência da humanidade ou de regiões inteiras” [101]. Essas tecnologias “conferem à guerra um poder destrutivo incontrolável, atingindo muitos civis inocentes, sem poupar sequer as crianças”, denuncia a Antiqua et Nova. Para evitar que a humanidade caia em “espirais de autodestruição”, é indispensável “adotar uma posição firme contra todas as aplicações da tecnologia que ameaçam intrinsecamente a vida e a dignidade da pessoa humana”.
Sobre as relações humanas, o documento observa que a IA pode, sim, “favorecer as conexões”, mas, ao mesmo tempo, levar a “um isolamento prejudicial” [58]. A “antropomorfização da IA” também apresenta problemas específicos para o desenvolvimento das crianças, incentivadas a entender “as relações humanas de maneira utilitarista”, como ocorre com os chatbots [60]. É “errado” representar a IA como uma pessoa, e é “uma grave violação ética” utilizá-la para fins fraudulentos. Da mesma forma, “usar a IA para enganar em outros contextos – como na educação ou nas relações humanas, incluindo a esfera da sexualidade – é profundamente imoral e exige vigilância rigorosa” .
Com relação às fake news, o documento destaca o sério risco de a IA “gerar conteúdos manipulados e informações falsas” [85], alimentando uma “alucinação” de IA, com conteúdos não verídicos que aparentam ser reais. Ainda mais preocupante é quando tais conteúdos fictícios são usados intencionalmente para fins de manipulação. Por exemplo, quando imagens, vídeos e áudios deepfake (representações alteradas ou geradas por algoritmos) são divulgados intencionalmente para “enganar ou prejudicar” [87]. O apelo, portanto, é para que se tenha sempre o cuidado de “verificar a veracidade” do que é divulgado e para evitar, em qualquer circunstância, “a disseminação de palavras e imagens degradantes para o ser humano”, excluindo “o que alimenta o ódio e a intolerância, desvaloriza a beleza e a intimidade da sexualidade humana e explora os fracos e indefesos”.