Notícia
Artigo
O que pode dar errado com o uso do ChatGPT?

O ChatGPT (Generative Pre-Trained Transformer) é um algoritmo criado pela OpenIA, com desenvolvimento pautado em redes neurais (Transformer – projetada especificamente para textos) e machine learning. Baseado em inteligência artificial (IA), o ChatGPT foi criado com o objetivo de fornecer respostas em linguagem natural, sendo capaz de responder perguntas, efetuar traduções, fazer um resumo ou gerar um texto, baseado não só em palavras-chave mas, também, no contexto e nos diferentes significados que uma palavra pode ter. Utilizando padrões e cruzamento de informações, cria respostas artificiais, ou seja, sem um viés de conteúdo autoral intelectual.
Pode ser usado para criar assistentes virtuais, chatbots, geradores de conteúdo e outras aplicações, incluindo código fonte de programas.
Segundo informações da empresa fornecedora do produto, o ChatGPT não trabalha com o conteúdo dinâmico da Internet e sim com uma base criada em 2021 com notícias, artigos e tuítes que continua sendo atualizada e expandida, adicionando novos conjuntos de dados e melhorando o desempenho do modelo com o tempo.
É indiscutível o poder e vantagens que o ChatGPT disponibiliza para o mundo corporativo e sociedade em geral. Porém, é importante deixar claro que pode oferecer contratempos para indivíduos, sociedade e instituições públicas e privadas. É necessário estar atento às suas limitações para não incorrer em situações de erro, quebra de segurança ou questões legais.
Diante desse contexto, faz-se necessário destacar alguns pontos antes da utilização indiscriminada desta ferramenta:
Disseminar preconceitos culturais e sociais
O ChatGPT pode reproduzir preconceitos que levam a discriminação de um indivíduo ou grupo social. O fato de o software ter sido treinado com diferentes conteúdos disponíveis na Internet, incluindo posts em redes sociais que muitas vezes são elaborados com discurso de ódio, percepção enviesada da realidade ou sem uma fundamentação teórica, pode levar ao algoritmo a produção de respostas carregadas de viés ideológicos e tendenciosos. Vale ressaltar que a própria OpenAI já fez alertas sobre a possibilidade de "produzir instruções prejudiciais ou conteúdo tendencioso/malicioso".
Disseminar desinformação
A OpenAI também admite que nem todas as informações encontradas nas respostas fornecidas pelo ChatGPT estão corretas, já que a ferramenta foi alimentada com diferentes conteúdos da Internet. O problema está na dificuldade de checagem do conteúdo, pois não há identificação das fontes e referências de suas respostas, contribuindo para possível disseminação da desinformação. Quando o contexto ou a intenção não são bem entendidos pela ferramenta, as respostas não serão relevantes ou úteis e podem levar a tomada de decisões equivocadas.
Construir conteúdo artificial e não intelectual
Existe grande risco proporcionado pelo robô, embutido na tecnologia, de aumentar a incidência de plágios e ocultação de autoria visto que a tecnologia pode ser usada para escrever trabalhos escolares, organizacionais, acadêmicos e até mesmo pareceres. Já existem soluções que permitem detectar se um texto foi escrito pelo ChatGPT, percebendo situações de plágio por falhas deixadas pelo software, como a falta de identificação de referência e informações inconsistentes.
Construir sentenças sem considerar aspectos emocionais
Apesar de conseguir identificar sugestões emocionais, não existe inteligência emocional propriamente dita. Ou seja, mesmo gerando respostas que, aparentemente são empáticas, as mesmas não respondem às questões complexas de caráter emotivo.
Além do ChatGPT, existem outras ferramentas com objetivos semelhantes como o Bard do Google e o Bing da Microsoft. Ambas usam IA em seus algoritmos, porém cada um apresenta características diferentes em suas respostas, com prós e contras específicos. O Bing, por exemplo, gera imagens, acessa a Web e pode oferecer fontes para as consultas efetuadas.
Qualquer avaliação de produtos desta natureza terá seus resultados temporários pois seus modelos, suas bases de dados e estrutura de sobreposição de análise e redirecionamento de comandos e instruções estão sendo constantemente atualizados. Porém, a essência de uma autoria não humana continua presente, bem como restrições de segurança e disseminação de informações sensíveis ou sigilosas.
Conclusão
Ferramentas como o ChatGPT são recentes, portanto, ainda não há direcionamentos precisos sobre o seu uso, impactos ou mesmo legislações específicas para os desdobramentos das consequências de um uso indevido ou prejudicial de conteúdo gerado por elas.
Contudo, a governança de IA vem sendo potencializada nas instituições com o objetivo de direcionar, orientar e sustentar o ambiente que envolve soluções de IA, para que estas estejam aderentes aos preceitos de uma IA Responsável.
Entende-se IA Responsável como um compromisso ético dos profissionais e empresas envolvidas, seja como desenvolvedores ou usuários de soluções, não apenas com o desempenho do modelo, mas nas implicações dos sistemas no contexto real e prático do dia a dia.
Para garantir o uso responsável das tecnologias de IA, é imperativo que as Políticas de Governança de IA estejam pautadas nos requisitos éticos, sendo devidamente tratadas durante cada etapa do desenvolvimento de sistemas de IA (Ética by Designer), nas condições que devem ser atendidas para que estes atinjam seus objetivos de forma ética (Requisitos éticos em IA) e nos valores de transparência, sustentabilidade, privacidade, justiça e responsabilidade (Valores éticos).
Sendo assim, a recomendação é que não se use o ChatGPT ou soluções similares para contextos complexos, envolvendo informações sigilosas ou que possam prejudicar de alguma forma, indivíduos, grupos ou impactar decisões críticas. É importante sempre uma verificação humana das respostas geradas automaticamente.
A utilização deve ser sempre cautelosa e responsável, com atenção aos preceitos éticos. Para fins corporativos, deve-se ficar atento ao uso de informações restritas e salvaguardar as normas de segurança preconizadas na empresa.
_______________________
Sobre os autores
Fabiano Graça é pós-graduado pela UFRJ em gestão de tecnologias integradas. Possui vasta experiência em desenvolvimento de sistemas e projetos. Entrou no Serpro em 2010 e atua na área de gestão desde 2017. Como Gerente de Departamento do Escritório de Governança desde 2019, democratiza o tema Governança de Dados, desenvolvendo os programas de Governança de Dados e de Governança de IA do Serviço Federal de Processamento de Dados (Serpro). É Gestor Corporativo de Dados do Serpro e, com sua experiência, contribui sobre os temas, para o Governo Federal..
Inah Lúcia Barbosa (Tuti) possui pós-graduação em Arquitetura de Sistemas pela Estácio de Sá e em Engenharia de Sistemas pela Universidade Federal de Pernambuco (UFPe). Entrou no Serpro em 1986, trabalhou com desenvolvimento de sistemas e na área de negócio, atendendo ao cliente Receita Federal, e participou de projetos pioneiros da empresa. Com vasta experiência em gestão de projetos, área que atua desde 1997, se especializou em projetos de normatização, sistemáticas e padronização com equipes multidisciplinares. Atualmente integra equipe de gestores do Escritório de Governança, sendo responsável, dentre outras frentes, pelo projeto de Governança de IA.
Vladimir Fagundes é Doutorando em Informática pela Universidade Federal do Rio de Janeiro em (PPGI/UFRJ), Mestre em Engenharia de Sistemas e Ciência da Computação pela Universidade Federal do Rio de Janeiro (UFRJ/COPPE) e Pós-graduado em Gestão Pública pela UNB. É Analista de Sistemas do Serviço Federal de Processamento de Dados desde 2006. Atua no Escritório de Governança de Dados e faz parte da Rede Acadêmica Serpro; da Rede de Privacidade Serpro e da Rede de Inteligência Serpro. É um dos autores do livro "Governança em privacidade e proteção de dados: uma versão integrada dos negócios empresariais", publicado pelo Serpro em dezembro de 2022 .