Letramento algorítmico: enfrentando a sociedade da caixa preta
Precisamos expandir os limites da educação midiática para preservar nossa liberdade de escolha em uma sociedade datificada.
(Texto publicado em 07/11/2023 como parte da série de artigos do EducaMídia na Folha de SP que busca trazer conceitos de educação midiática para professores de educação básica.)
Nos últimos anos avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que violam direitos e podem até desestabilizar a democracia. Mas, além dos conteúdos que circulam nas mídias, há também a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses empresariais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdos enviesados, ofensivos ou violentos, podendo inclusive empurrar determinados indivíduos mais suscetíveis para ambientes — e ações — extremistas.
Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens, mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática. Porém deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de “letramento algorítmico crítico”.
Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de “sociedade da caixa preta” — em que decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação (Selwin, 2022).
Educar para as novas dinâmicas socio-técnicas implica em reconhecer que as tecnologias não são neutras, e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.
Na prática, a educação midiática deve desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamentos dos algoritmos que moldam o resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados “dark patterns” que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar vieses ou exclusões refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.
Nesse novo contexto, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto das mensagens; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, a mídia e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.
****
1 Datificação é, segundo Pangrazio e Sefton-Green (2022), o “processo pelo qual ações e comportamentos são convertidos em dados que podem ser gravados, ordenados ou comodificados pelo governo ou empresas privadas”
*****
Referências:
KO, Amy J. et al. It is time for more critical CS education. Communications of the ACM, v. 63, n. 11, p. 31–33, 22 out. 2020. Disponível em: https://dl.acm.org/doi/10.1145/3424000 . Acesso em: 21 out. 2023
MOSS, Scott. The Prevalence of Artificial Intelligence, Surveillance Capitalism, Disinformation, and Biased Algorithms Amplify the Need for Critical Skills Applied to Media. The Journal of Media Literacy, [S. l.], 2022. Disponível em: https://ic4ml.org/journal-article/the-prevalence-of-artificial-intelligence-surveillance-capitalism-disinformation-and-biased-algorithms-amplify-the-need-for-critical-skills-applied-to-media/. Acesso em: 16 jul. 2023.
OCHS, M. Nem mágico, nem invisível: notas para um diálogo urgente entre educação midiática e letramento algorítmico na educação básica. In: INTERCOM — 46° Congresso Brasileiro de Ciências da Comunicação. 30 ago. 2023. Disponível em: <https://drive.google.com/file/d/1vR1BFO7IwO3ufL3xJLbz4B77nU2F3g0v/view>. Acesso em: 21 out. 2023
PANGRAZIO, L.; SEFTON-GREEN, J. Learning to Live with Datafication. [s.l.] Routledge, 2022.
POSTMAN, N. Five things we need to know about technological change. Denver, Colorado, 28 mar. 1998. Disponível em: <https://www.cs.ucdavis.edu/~rogaway/classes/188/materials/postman.pdf>. Acesso em: 21 out. 2023
SELWYN, N. What Should “Digital Literacy” Look like in an Age of Algorithms and AI? London School of Economics — Parenting for a Digital Future, 6 abr. 2022. Disponível em: <https://blogs.lse.ac.uk/parenting4digitalfuture/2022/04/06/digital-literacy-and-ai/>. Acesso em: 21 out. 2023