Letramento algorítmico: enfrentando a sociedade da caixa preta

Mariana Ochs
4 min readNov 7, 2023

Precisamos expandir os limites da educação midiática para preservar nossa liberdade de escolha em uma sociedade datificada.

(Texto publicado em 07/11/2023 como parte da série de artigos do EducaMídia na Folha de SP que busca trazer conceitos de educação midiática para professores de educação básica.)

Aiden / Adobe Stock. Gerado com IA.

Nos últimos anos avançamos bastante no entendimento da necessidade urgente de construir a autonomia dos jovens para que atuem nos ambientes informacionais da sociedade com segurança, ética e responsabilidade. Cada vez mais presente nas normas educacionais, na legislação e em diversos esforços da sociedade civil, a educação midiática apresenta-se como forma mais eficaz e sustentável de lidarmos com desinformação, boatos, discursos de ódio, propaganda e outros fenômenos que violam direitos e podem até desestabilizar a democracia. Mas, além dos conteúdos que circulam nas mídias, há também a parte mais opaca dos ecossistemas de comunicação: os algoritmos que, sujeitos a lógicas e interesses empresariais, personalizam o que vemos a ponto de nos expor a recortes seletivos da realidade, direcionando comportamentos, moldando nossas opiniões de maneira sutil e, por vezes, prejudicial. Esses algoritmos muitas vezes priorizam e reforçam engajamento com conteúdos enviesados, ofensivos ou violentos, podendo inclusive empurrar determinados indivíduos mais suscetíveis para ambientes — e ações — extremistas.

Com os ambientes digitais mediando cada vez mais a nossa visão de mundo, enfrentar esses desafios exige olharmos não só para as habilidades de acessar e avaliar mensagens, mas também, e cada vez mais, educar os jovens para perceber o funcionamento e os efeitos do próprio ambiente tecnológico. Em tempos de inteligência artificial, em que perguntas humanas podem encontrar respostas incorretas ou enviesadas criadas por sistemas preditivos, a computação precisa urgentemente entrar na pauta da educação midiática. Porém deve ser explorada de forma crítica, para entendermos os seus impactos sobre a justiça social e a democracia — e não apenas como ferramenta de trabalho em uma sociedade digital. A esse novo campo, que expande os limites da educação para a informação e oferece uma ponte entre a computação e a educação midiática, chamamos de “letramento algorítmico crítico”.

Hoje vivemos o crescimento exponencial da automação baseada em dados — tecnologias chamadas de algorítmicas ou de inteligência artificial capazes de fazer previsões e tomar decisões a partir dos dados que as alimentam. Esses sistemas operam de forma silenciosa e quase onipresente na vida contemporânea, impactando desde a escolha do vídeo que vai ser apresentado a uma criança no YouTube até o sistema que vai regular sua oferta de emprego ou de crédito quando crescer. É o que vem sendo chamado de “sociedade da caixa preta” — em que decisões automatizadas, geralmente invisíveis para o usuário comum, moldam seu acesso a direitos, serviços e informação (Selwin, 2022).

Educar para as novas dinâmicas socio-técnicas implica em reconhecer que as tecnologias não são neutras, e incorporam valores daqueles que as criam ou programam; que seus efeitos são ecológicos, impactando e redefinindo relações sociais e econômicas; e que, agindo sobre sociedades desiguais, podem amplificar exponencialmente as injustiças sociais e a exclusão.

Na prática, a educação midiática deve desenvolver as habilidades necessárias para que os jovens sejam capazes de perceber, questionar e influenciar o comportamento dos sistemas tecnológicos. Crianças e jovens devem ser levados a explorar as formas de funcionamentos dos algoritmos que moldam o resultados de nossas buscas na internet; podem questionar a ética dos sistemas de previsão e recomendação, ou ainda o design por trás das interfaces das redes sociais que utilizam, incluindo os chamados “dark patterns” que manipulam nossas decisões. Devem estar atentos a dinâmicas que promovem imagens inalcançáveis ou vulnerabilizam determinados grupos. Precisam perceber e questionar vieses ou exclusões refletidos na produção das IAs generativas. Sobretudo, devem entender os mecanismos de engajamento e de atenção que favorecem conteúdos que segregam, ofendem e desestabilizam as comunidades.

Nesse novo contexto, a educação midiática deve ir além de construir as habilidades de acessar, avaliar e criar mensagens, examinando autoria, propósito e contexto das mensagens; deve abranger também uma compreensão mais profunda da dinâmica complexa, e muitas vezes oculta, entre os indivíduos, a mídia e os sistemas tecnológicos que moldam nosso mundo. Sem a capacidade de identificar e agir sobre esses sistemas, nos tornamos vulneráveis aos efeitos desestabilizadores da desinformação e da polarização, que ameaçam as instituições e a própria paz social, e ao potencial excludente das IAs. É preciso abrir a caixa preta.

****

1 Datificação é, segundo Pangrazio e Sefton-Green (2022), o “processo pelo qual ações e comportamentos são convertidos em dados que podem ser gravados, ordenados ou comodificados pelo governo ou empresas privadas”

*****

Referências:

KO, Amy J. et al. It is time for more critical CS education. Communications of the ACM, v. 63, n. 11, p. 31–33, 22 out. 2020. Disponível em: https://dl.acm.org/doi/10.1145/3424000 . Acesso em: 21 out. 2023

MOSS, Scott. The Prevalence of Artificial Intelligence, Surveillance Capitalism, Disinformation, and Biased Algorithms Amplify the Need for Critical Skills Applied to Media. The Journal of Media Literacy, [S. l.], 2022. Disponível em: https://ic4ml.org/journal-article/the-prevalence-of-artificial-intelligence-surveillance-capitalism-disinformation-and-biased-algorithms-amplify-the-need-for-critical-skills-applied-to-media/. Acesso em: 16 jul. 2023.

OCHS, M. Nem mágico, nem invisível: notas para um diálogo urgente entre educação midiática e letramento algorítmico na educação básica. In: INTERCOM — 46° Congresso Brasileiro de Ciências da Comunicação. 30 ago. 2023. Disponível em: <https://drive.google.com/file/d/1vR1BFO7IwO3ufL3xJLbz4B77nU2F3g0v/view>. Acesso em: 21 out. 2023

PANGRAZIO, L.; SEFTON-GREEN, J. Learning to Live with Datafication. [s.l.] Routledge, 2022.

POSTMAN, N. Five things we need to know about technological change. Denver, Colorado, 28 mar. 1998. Disponível em: <https://www.cs.ucdavis.edu/~rogaway/classes/188/materials/postman.pdf>. Acesso em: 21 out. 2023

SELWYN, N. What Should “Digital Literacy” Look like in an Age of Algorithms and AI? London School of Economics — Parenting for a Digital Future, 6 abr. 2022. Disponível em: <https://blogs.lse.ac.uk/parenting4digitalfuture/2022/04/06/digital-literacy-and-ai/>. Acesso em: 21 out. 2023

--

--

Mariana Ochs

Designer, educator, Google Innovator. Coordinator of EducaMídia. Exploring design, media and technology in education, and empowering youth in the digital age.