A despeito de inúmeros benefícios que a inteligência artificial no campo da criação pode trazer, a rápida ascensão desses produtos também carrega uma série de dilemas ainda longe de serem superados.
Os grandes modelos de linguagem — como são chamados os algoritmos treinados em grande quantidade de dados — que estão por trás dessas plataformas geram preocupações sobre como mensurar a aprendizagem e o risco de desinformação. E, dado que ainda não há legislação para lidar com tais aparatos, suas limitações ainda não são bem compreendidas.
A PROVA ORAL ESTÁ DE VOLTA
No campo do Direito, o ChatGPT já foi aprovado no exame “The Bar” nos Estados Unidos, o equivalente à prova da OAB brasileira. Na Medicina, estudos de pesquisadores da Universidade de Yale apontaram que o programa pode ser aprovado no Exame de Licenciamento Médico dos EUA. Na área da Administração, o professor Christian Terwiesch, da Wharton, escola de negócios da Universidade Pensilvânia, testou a capacidade do ChatGPT e identificou que ele seria aprovado em disciplina central para receber o diploma do MBA em Wharton.
A popularização do ChatGPT chegou ainda às salas de aula de escolas de ensino fundamental e médio, como relata reportagem do New York Times. Professores e administradores tentam discernir se os alunos estão usando o chatbot para fazer trabalhos escolares. Algumas escolas públicas na cidade de Nova York e Seattle proibiram a ferramenta nas redes e dispositivos Wi-Fi da escola para evitar trapaças, embora os alunos possam encontrar facilmente alternativas para usar o chatbot. Numa batalha em tempo real com a nova onda tecnológica, professores universitários nos Estados Unidos, chefes de departamento e administradores começam a reformar as salas de aula em resposta ao ChatGPT, provocando mudanças no ensino e na forma de medir a aprendizagem. Alguns professores reformularam completamente seus cursos, com mais exame s orais, trabalhos em grupo e avaliações manuscrita s em vez de digitadas. Mas há quem relute em proibir a ferramenta porque não quer infringir a liberdade acadêmica.
RISCO DE DESINFORMAÇÃO
Não é só no campo educacional que esses programas levantam preocupações. O sistema baseado em IA generativa pode criar falsas associações que culminem em desinformação para os usuários.
Outro problema é a diferença de resultados que a plataforma pode gerar a depender da quantidade e da natureza dos dados imputados em sua base de dados.
—A IA tem que ser treinada a partir de dados confiáveis. Sabemos que hoje em dia existe uma grande quantidade de fakenews dispersas na internet. Se o mecanismo for treinado com base em conteúdo falso, ele irá replicar e amplificar esse tipo de conteúdo — alerta Walter Hildebrandi, diretor de Tecnologia da Zendesk para a América Latina.
Christian Perrone, gerente de Direito e Tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS), destaca o potencial excludente que os padrões estabelecidos pelos chatbots baseado em IA podem trazer:
—Que respostas vai dar uma IA com relação a perguntas filosóficas, como ‘qual o sentido da vida ?’ Isso tem impactos éticos e na nossa capacidade cognitiva. Se eu perguntar a um buscador, vou receber milhares de versões e links relacionados. Se perguntar ao ChatGPT, virá uma única resposta. Isso diminui a vertente cognitiva das pessoas. Qualquer lei que surja deve pensar nos potenciais riscos.
REGULAMENTAÇÃO NA UE
Em resposta a algumas dessas questões, a OpenAI publicou trechos de um relatório feito por pesquisadores da empresa em conjunto com o Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown e o Observatório da Internet de Stanford. A pesquisa chegou à conclusão de que modelos de linguagem podem ser usados de forma indevida para fins de desinformação, com criação de “textos convincentes e enganosos para uso em operações de influência”.
Paulatinamente, reguladores e tribunais devem estabelecer limites para a IA. A Comissão Europeia iniciou uma força-tarefa para elaborar uma regulação sobre inteligência artificial (AI Act) para garantir o uso por empresas e consumidores de forma ética e segura.
A proposta prevê que as empresas envolvidas com essas tecnologias, especialmente as que integram a inteligência artificial de alto risco, devem esclarecer o funcionamento de seus sistemas. O objetivo é garantir segurança jurídica, transparência e confiança e permitir o desenvolvimento de um mercado saudável.