Inteligência artificial: use com cautela.

Mariana Ochs
5 min readMar 6, 2023

Criar com chatbots como ChatGPT ou MidJourney exige critério e atenção.

Texto publicado em 02/03/2023 como parte da série de artigos do EducaMídia na Folha de SP que busca trazer conceitos de educação midiática para professores de educação básica.

Ilustração criada por Mariana Ochs com MidJourney. Comando utilizado: ilustração em colagem sobre o uso consciente de tecnologias criativas de IA — como ChatGPT e MidJourney. Cores suaves, bordas irregulares, fundo claro.

Nos últimos meses presenciamos a adesão maciça às tecnologias de criação assistidas por inteligência artificial e acessadas por linguagem natural, como os robôs ChatGPT da OpenAI, que cria textos com estrutura gramatical e coerência interna perfeitas, e o MidJourney, da empresa de mesmo nome, que devolve imagens realistas a partir de comandos de texto. Esses são os exemplos mais conhecidos de uma leva crescente de aplicativos que disponibiliza o uso da IA para o público em geral. Em tempo recorde, essas plataformas se tornaram amplamente presentes no mercado. Enquanto o Instagram levou 2 anos e meio para atingir a marca de 100 milhões de usuários e o TikTok precisou de nove meses, segundo dados apurados pela Reuters, o ChatGPT atingiu a marca em apenas dois meses — a adesão mais veloz na história dos aplicativos para o consumidor final.

Pessoas em todo o mundo estão usando o ChatGPT para gerar texto em situações cotidianas, automatizar tarefas menores e criar trabalhos e roteiros. Já o MidJourney tem ajudado criadores a explorar ideias rapidamente para coleções de moda, cenários de filmes ou games. No entanto, essa tecnologia não vem sem riscos. É importante que os usuários compreendam as implicações éticas e sociais da utilização de ferramentas de inteligência artificial, bem como seus limites, para que possam usá-las de forma consciente e cuidadosa. Isso aponta para um dos pilares da educação midiática: o uso crítico e reflexivo das tecnologias. Desse ponto de vista, identificamos alguns pontos de atenção que podem — e devem — ser alvo de ações educativas: desinformação, degradação, viés e uniformização.

Desinformação: No momento, a geração de textos por IA possui mecanismos de controle que garantem a qualidade da estrutura narrativa e gramatical, mas não a confiabilidade ou precisão das informações alí contidas. Quando há dados, por exemplo, não só as fontes não são citadas, como os dados podem, por admissão do próprio robô, ser totalmente “hipotéticos”. Isso pode auxiliar na disseminação de informações falsas, parciais ou tendenciosas. Por outro lado, a própria linguagem gerada pelo chatbot, por ser correta e bem-estruturada, acaba gerando no usuário uma falsa sensação de autoridade. A pesquisadora do MIT Patty Maes comparou o Chat GPT a um papagaio, que sabe reproduzir estruturas gramaticais coerentes mas não sabe refletir sobre seu conteúdo ou significado, o que reforça a necessidade de educar o público para seu uso crítico. O próprio CEO da empresa que criou o ChatGPT, Sam Altman, reconhece que a tecnologia ainda está dando seus primeiros passos, e alertou em um tweet: “O ChatGPT é incrivelmente limitado, mas bom o suficiente em algumas coisas para criar uma impressão enganosa de competência. É um erro confiar nele para qualquer coisa importante agora. Temos muito trabalho a fazer em robustez e veracidade.”

Degradação: Um artigo recente da revista New Yorker chamou a atenção para a perda gradual de qualidade que acontece quando um algoritmo consulta uma grande quantidade de informações e busca reproduzir suas estruturas mais frequentes. Esse processo descarta muito da informação, retendo apenas a parte que considera essencial, numa aproximação do original. Essa aproximação, que está na base da tecnologia utilizada pelos robôs de IA, é comparável à perda de definição de uma imagem reproduzida na fotocopiadora: imperceptível à primeira vista, mas que vai se agravando à medida em que reproduzimos novamente as imagens já degradadas. O risco aqui é que, se textos gerados por IA forem introduzidos novamente na base de dados que alimenta a própria IA, especialmente os que contém informações imprecisas ou vagas, veremos uma degradação na qualidade das informações. O mesmo pode acontecer com os bancos de imagens que “ensinam” os bots, que podem acentuar cada vez mais as características indesejáveis que vão desde imagens deturpadas até a repetição de estilos e padrões. Mais uma vez, porém, como essa “falta de definição” é apresentada na forma de texto gramaticalmente impecável, habilidade na qual o ChatGPT se destaca, ou em imagens aparentemente realistas, ela acaba passando despercebida.

Viés: Outra forma de causar a degradação da base de dados ou imagens é alimentar o sistema com imagens ou textos enviesados. Um exemplo são os textos jornalísticos que associam diretamente favelas à violência, ou imagens com conotação racista ou misógina. Isso tende a reforçar clichês, estereótipos ou preconceitos presentes na base de dados, afetando negativamente a qualidade e a diversidade dos conteúdos gerados. Ausências, viés e recortes são nuances que escapam à análise dos algoritmos, e temos muito que avançar ainda nesse sentido. Pesquisadores e ativistas vêm apontando a questão do chamado “viés algorítmico” nas tecnologias de gestão pública ou empresarial, mas com a popularização dos aplicativos de IA o problema pode se agravar consideravelmente.

Uniformização: O ChatGTP entrega textos habilmente construídos do ponto de vista gramatical e segundo a norma padrão, mas conseguir nuances estilísticas e criativas depende sobretudo de um manejo mais hábil dos comandos. O mesmo acontece com o MidJourney: o uso repetido dos mesmos bancos de imagens e a frequência de imagens de determinados estilos nessas bases acaba gerando uma uniformização dos resultados e uma repetição de clichês visuais. Nos dois ambientes, a qualidade e originalidade dos resultados dependerá sempre da habilidade dos usuários em gerar perguntas e comandos melhores, o que por sua vez requer conhecimento sobre o tema e bagagem estética.

Em suma, quando se trata de inovações com potencial disruptivo e grande impacto na sociedade, é essencial que as empresas responsáveis sejam claras quanto aos limites dessas tecnologias e que se empenhem desde os estágios iniciais do desenvolvimento, junto com os diversos setores da sociedade, em mitigar os possíveis efeitos negativos. A nós, educadores, cabe preparar as atuais e futuras gerações de usuários para o uso consciente, criativo e ético dessa ou de qualquer outra tecnologia.

Nota: o primeiro parágrafo deste texto foi elaborado com a ajuda do Chat GPT e trazia alguns dados que tivemos que checar e corrigir. Ao ser perguntado sobre a fonte dos dados, o robô respondeu o seguinte: “Peço desculpas, mas como uma IA, eu não tenho acesso direto a fontes de dados em tempo real. Os dados apresentados foram usados apenas como exemplos hipotéticos para ilustrar a resposta à pergunta. No entanto, é importante ressaltar que a ascensão de plataformas assistidas por IA como o ChatGPT e o MidJourney é uma tendência crescente, e é possível encontrar informações e estatísticas atualizadas sobre o assunto em sites de notícias, artigos acadêmicos e relatórios de mercado.”

Mariana Ochs é coordenadora do EducaMídia, o programa de educação midiática do Instituto Palavra Aberta

***********

Referências:

ChatGPT estabelece recorde de crescimento da base de usuários, diz UBS

Inteligência artificial que escreve sozinha é ‘como um papagaio’ e isso traz riscos, diz especialista do MIT — 22/02/2023 — Tec — Folha

ChatGPT: entenda como funciona o chatbot ‘sabe-tudo’ da OpenAI | Internet | TechTudo

Twitter Sam Altman

ChatGPT Is a Blurry JPEG of the Web

--

--

Mariana Ochs

Designer, educator, Google Innovator. Coordinator of EducaMídia. Exploring design, media and technology in education, and empowering youth in the digital age.