A ética e a inteligência artificial

 

“O professor Christian Terwiesch, da Universidade de Wharton, aplicou o exame final do Master in Business Administration (MBA) de sua universidade, além do Exame de Ordem (uma espécie de “prova da OAB” nos EUA) e também do Exame de Licenciamento Médico dos Estados Unidos (USMLE). Em todos os casos, a máquinapassou e reforçou os temores do mundo acadêmico sobre a necessidade de revisar os métodos de avaliação.”

Bruno Romani

 

O surgimento e a grande repercussão dada ao ChatGPT, ferramenta mais comentada nos meios de tecnologia no momento, me levaram a uma série de reflexões. Uma delas, expressada no Diálogo no Espaço Democrático gravado com o fundador e diretor-geral do Centro de Excelência em Inteligência Artificial de Goiás, Prof. Anderson Soares, diz respeito ao bom ou mau uso que pode ser feito da referida ferramenta.

Antes de seguir com a reflexão, cabe lembrar que o ChatGPT é uma ferramenta de inteligência artificial especializada em diálogos que vai muito além de uma espécie de Google que, em vez de oferecer links nos quais se pode encontrar a resposta buscada, concebe um texto com a solução pronta. Trata-se, portanto, como assinalou o professor da Universidade Federal de Goiás, da primeira inteligência artificial adaptativa e evolutiva que pode ser instruída e tem capacidade de aprender.

O ChatGPT traz uma vez mais à tona a questão da relação entre a ética e a tecnologia, amplamente debatida por ocasião dos testes realizados com o carro autônomo diante da necessidade de tomar uma decisão que poderia resultar na morte de um ser humano. Um dos que abordou o tema foi Yuval Harari no livro 21 lições para o século 21.

Suponha que dois garotos correndo atrás de uma bola vejam-se bem em frente a um carro autodirigido. Com base em seus cálculos instantâneos, o algoritmo que dirige o carro conclui que a única maneira de evitar atingir os dois garotos é desviar para a pista oposta, e arriscar colidir com um caminhão que vem em sentido contrário. O algoritmo calcula que num caso assim há 70% de probabilidades de que o dono do carro – que dorme no banco traseiro – morra. O que o algoritmo deveria fazer?

Depois de tecer uma série de considerações a respeito da situação, chegando mesmo à possibilidade extrema de uma companhia como a Tesla produzir dois modelos de carro, o Altruísta e o Egoísta, Harari complementa fornecendo uma importante informação adicional:

Num estudo pioneiro, em 2015, apresentou-se a pessoas um cenário hipotético de um carro autodirigido na iminência de atropelar vários pedestres. A maioria disse que nesse caso o carro deveria salvar os pedestres mesmo que custasse a vida de seu proprietário. Quando lhes perguntaram se eles comprariam um carro programado para sacrificar seu proprietário pelo bem maior, a maioria respondeu que não. Para eles mesmos, iam preferir o Tesla Egoísta.

Imagine a situação: você comprou um carro novo, mas antes de começar a usá-lo tem de abrir o menu de configurações e escolher cada uma das diversas opções. Em caso de acidente, quer que o carro sacrifique sua vida – ou que mate a família no outro veículo? Essa é uma escolha que você mesmo quer fazer? Pense nas discussões que vai ter com seu marido [ou sua esposa] sobre qual opção escolher.

Decisões dessa natureza se assemelham, de certa forma, à que precisou ser tomada pela atriz Meryl Streep no filme A escolha de Sofia. No referido filme, por ocasião da Segunda Guerra, uma mãe judia [interpretada por Meryl Streep] é obrigada pelos nazistas a escolher, entre seu filho e sua filha, qual seguirá para os campos de concentração.

Voltando às reflexões provocadas pelo ChatGPT, recordo-me que nos mais de 35 anos em que atuei como professor universitário, sempre me preocupei com questões relacionadas à ética e a moralidade e, nesse aspecto, lugar especial cabia à lisura na realização de provas e trabalhos por parte dos alunos. Meu raciocínio seguia uma lógica: colar ou plagiar é uma forma de corrupção que está ao alcance do estudante; se não for coibida, poderá passar a ser considerada uma prática normal a ser adotada em outras situações.

Certa vez, um aluno punido por esse motivo me disse: “Professor, não sei porque tanta preocupação. Afinal, ao colar eu só estou enganando a mim mesmo e – acrescentou com um sorrisinho maroto – ao senhor”.

Argumentei com ele que meu sonho era ver um Brasil cada vez melhor, em que a meritocracia seria a regra e, nessa linha, o bom desempenho acadêmico seria fator decisivo para o passo seguinte na carreira de qualquer pessoa, com as notas sendo adotadas como fator de entrada nos cursos superiores ou para contratação pelas empresas. Se isso vier a ocorrer – e já ocorre de certa forma com o aproveitamento das notas do Enem para ingresso nas faculdades – o aparentemente pequeno ato de corrupção não enganaria só ao aluno e seu professor, mas a toda a sociedade, uma vez que o recurso ilícito seria a porta de entrada para a universidade ou para a carreira profissional.

Nos anos finais dedicados à docência – me aposentei em 2017 – o controle de eventuais fraudes já era bem mais complicado, dadas as facilidades oferecidas pelos sites de busca como o Google que permitiam que os alunos recorressem ao “copiar e colar” para a elaboração de seus trabalhos.

É claro que bons professores estavam aptos a evitar as fraudes, propondo trabalhos que exigissem alguma criatividade dos alunos e não a mera reprodução de conceitos ou fórmulas prontas ou mesmo fazendo questionamentos adicionais para aferir o real conhecimento dos estudantes quando houvesse dúvidas a respeito da autoria da tarefa. Tal atitude será ainda mais necessária de agora em diante, pois o uso do ChatGPT e de outras ferramentas de inteligência artificial que surgirão num ritmo cada vez mais alucinante estará à disposição de estudantes ou profissionais dispostos a não pensar duas vezes diante da possibilidade de fazer uso da fraude e de outros métodos ilícitos como atalho para a obtenção de seus anseios acadêmicos ou profissionais.

Todas essas reflexões me levaram a resgatar um artigo escrito para a Agência Planalto[1] em 1985 intitulado “quem não cola, não sai da escola”, que começava da seguinte forma:

Poucas vezes se consegue, acidentalmente, demonstrar um fenômeno de forma tão significativa como consegue um anúncio que tem sido veiculado por nossas redes de televisão nos dias atuais: trata-se do problema da “cola”, presente no filme publicitário de uma determinada marca de bolsas, sandálias e sapatos de plástico. Na referida peça publicitária, uma bonita menina de não mais de dez anos é surpreendida pela professora por duas vezes quando, durante uma prova escolar, tenta se utilizar de “cola”, ora colocada na bolsa, ora na sola do sapato.

Nada contra o anúncio, aliás muito bem produzido e que fez enorme sucesso. Apenas gostaria de chamar atenção para o fato de que, tanto naquela época como nos dias de hoje, há muita gente que acredita que coisas desse tipo não têm maior importância, dada a existência de casos de corrupção muito mais graves e prejudiciais.

Discordo plenamente dessa forma de pensar, por ver nela um estímulo à impunidade. E torço para que professores e profissionais continuem se empenhando pela preservação de boas condutas, a fim de que o mérito e não a fraude torne-se a regra no País.

 

Referências biográficas e webgráficas

HARARI, Yuval Noah. 21 lições para o século 21. Tradução de Paulo Geiger. São Paulo: Companhia das Letras, 2018.

MACHADO, Luiz Alberto. Quem não cola não sai da escola. Jornal de Jundiaí, terça-feira, 18 de junho de 1985, p. 4.

ROMANI. Bruno. ChatGPT muda inteligência artificial para sempre e afeta empregos e economia. O Estado de S. Paulo, 4 de fevereiro de 2023. Disponível em https://www.estadao.com.br/link/cultura-digital/chatgpt-muda-inteligencia-artificial-para-sempre-e-afeta-empregos-e-economia/.

SOARES, Anderson. ChatGPT é muito mais que um Google. Tem capacidade de aprender. Entrevista para a série Diálogos no Espaço Democrático. Disponível em https://espacodemocratico.org.br/noticias/chatgpt-e-muito-mais-que-um-google-tem-capacidade-de-aprender/.

Referência cinematográfica 

A escolha de Sofia (Sophie’schoice)

Direção: Alan J. Pakula

Gênero: Drama

Elenco: Meryl Streep, Kevin Kline, Peter MacNicol, Rita Karin.

Duração: 2h 30 minutos

 

[1] A Agência Planalto era um departamento do Convivio – Sociedade Brasileira de Cultura, responsável pela produção de artigos escritos por seus professores e colaboradores, que eram distribuídos, semanalmente, para centenas de jornais da pequena e média imprensa de todo o País.