Um
recente manifesto de 350 cientistas e dirigentes de empresas, entre eles Sam
Altman (OpenAI), Demis Hassabis (Google DeepMind), Geoffrey Hinton e Yoshua
Bengio (Prêmio Alan Turing, tido como um Nobel da tecnologia), faz um alerta
sobre o que significam os últimos avanços da inteligência artificial (AI). O
manifesto argumenta que “debelar o risco de extinção representado pela IA deve
ser uma prioridade global ao lado de outros riscos como pandemias e guerra
nuclear”. Seus autores defendem alguma regulação ou, no mínimo, a
autorregulação. Alguns, chegam a pedir uma moratória aos desenvolvedores de IA.
Como toda a vida e a produção humanas baseiam-se na linguagem, é lógico que
estamos diante de uma revolução. Pela primeira vez, a linguagem está sendo
criada por máquinas. Por isso, os riscos vão além da gradual substituição de
humanos. Grandes contingentes vão perder relevância e serão afastados do
mercado de trabalho. Escanteados. Poderemos ter sociedades ainda mais
divididas. Com muitos excluídos da vida digital. E, portanto, do mercado de
trabalho, da ciência, da informação e das artes.
A IA alimenta-se do que está na internet.
Onde abunda a desinformação que é potencializada pela organização dos
algoritmos que mentem e discriminam para capturar a audiência. Seus modelos de
linguagem, a IA gera-os a partir do que ela colhe no mundo digital. E aí surge
a pergunta: como um chatbot de IA vai distinguir o que é fake news do que é
realidade objetiva? Diante de uma tecnologia
tão disruptiva, muitos se apressam com vaticínios apocalípticos. Como os feitos
pelo manifesto sobre uma ameaça de extinção gradual da civilização. Alguns,
como Eugenio Bucci (O Estado de São Paulo, 3/6/2023) chegam a acreditar nessa
hipótese de extinção por IA.
Porém, como em outras ameaças, pode
não ser ingenuidade supor que a humanidade tem condições de prevenir os
desastres anunciados. As ferramentas de IA, pelo menos no horizonte próximo, ainda
não têm certos atributos que permanecem próprios aos seres humanos. Como
observa Pedro Dória (O Globo, 3/6/23), os softwares de IA produzem
textos, imagens e sons a partir de “padrões de informação que nós mesmos
geramos”. Ainda não exibem capacidade cognitiva autônoma. A IA é prodigiosa.
Mas ainda é destituída do sentimento, que é específico aos humanos. Não tem a
criatividade, a originalidade e a capacidade de contextualizar. Nem de produzir
os valores que cada um de nós adotamos no exercício do nosso livre-arbítrio. Dia
desses coloquei no prompt do Chat Gpt4 dois versos de Moisés Sesyon, poeta
popular do Açu-RN, e desafiei-o a fazer a glosa. O que retornou foi uma
vergonha que faria rir de desprezo nossos poetas do Açu ou do Pajeú.
Mas não se podem afastar as ameaças que decorrem da expansão da IA. Elas inscrevem-se entre os problemas planetários como o aquecimento global, a destruição nuclear, a desigualdade e a exclusão. Trata-se de desafio a ser enfrentado com eficiência e planejamento. Que exige coordenação democrática e uma educação de qualidade e mais equitativa para todos. De modo a que todos os cidadãos, beneficiados pelo acesso a uma educação digital inclusiva, possam participar dos processos decisórios. Tarefas que só a democracia pode cuidar plenamente. Que não se podem deixar apenas aos poderosos controladores das Big Techs. Nem sequer a uns poucos ministros das cortes supremas. Necessário ouvir todos os setores das sociedades. Uma regulação da inteligência artificial deve combinar o incentivo ao desenvolvimento tecnológico e à liberdade de expressão com a possibilidade de que a sociedade escolha os valores éticos a serem preservados e estimulados. Entre eles, a inclusão de todos na fruição dos benefícios das inovações. E, não menos importante, a preservação da vida no planeta. Humana, como também de outras espécies animais e vegetais.
Os parlamentos já começaram a tarefa, como os
da Austrália e o Europeu. Este último está propondo um código de autorregulação
aos provedores de redes sociais e serviços de mensageria. Um dia, quem sabe, o
planeta poderá contar com regulação global, aprovada a partir de tratados que
brotem da experiência das legislações inicialmente aprovadas pelos parlamentos
nacionais. O manifesto dos cientistas e desenvolvedores de IA talvez possa ser
visto nesta perspectiva. A de que o assunto já se tornou grave e estratégico demais
para ser deixado apenas à pequena comunidade das Big Techs, de cientistas e de desenvolvedores
dos novos sistemas de IA.
Maurício Rands, advogado formado pela FDR da UFPE,
PhD pela Universidade Oxford
Nenhum comentário:
Postar um comentário