Do que falamos quando falamos de ética das IAs?

Mariana Ochs
5 min readOct 24, 2023

Se as decisões automatizadas alimentadas por algoritmos impactam cada vez mais aspectos de nossas vidas, precisamos garantir que esse impacto favoreça os direitos individuais e o bem comum.

TensorSpark/Adobe Stock — Gerado com IA

Ética na Internet é um termo muito amplo. Refere-se basicamente à análise do papel que a Internet desempenha naquilo que os filósofos chamam de desenvolvimento de uma boa vida — o tipo de vida que queremos para nós mesmos, para a sociedade em geral, o tipo de pessoas que queremos ser. A internet está desempenhando um papel positivo no desenvolvimento desse tipo de vida ou está nos prejudicando de alguma forma? — Irina Raicu, Markkula Center for Applied Ethics, Santa Clara University

Vivemos sob o efeito constante dos processos algorítmicos. Decisões automatizadas, feitas a partir de dados coletados com ou sem o nosso conhecimento, impactam diversas áreas de nossas vidas — nas redes sociais, por exemplo, influenciam qual informação chega até nós, com quem nos relacionamos ou o que vamos assistir. Também têm grande influência sobre decisões de empresas e serviços públicos — quanto custam nossas passagens aéreas, quem recebe crédito e a que preço, quem receberá benefícios ou tem chance de ser acusado falsamente por um sistema de reconhecimento facial.

Pesquisadores e ativistas de diversos campos estão se debruçando sobre os impactos das tecnologias digitais na sociedade, em suas várias manifestações e interfaces, e investigando se elas contribuem para o bem comum. Pensar na ética da internet, dos algoritmos ou das inteligências artificiais significa avaliar se liberdade, direitos humanos, justiça e equidade estão presentes em nossas vidas digitais, aumentando ou diminuindo a cada nova inovação tecnológica; significa também avaliar o custo/benefício das diversas tecnologias que utilizamos, para indivíduos, para a coletividade e para o meio ambiente.

Novas perguntas, velhos dilemas

A possibilidade de coletar e analisar vastas quantidades de dados inaugurou a era do Big Data. Nossos dados alimentam complexos sistemas de decisões que operam de forma opaca. Olhar para a ética desses sistemas significa questionar que dados estão sendo coletados e de quem, a que objetivos servem esses parâmetros, para que serão utilizados os dados e quem toma essas decisões. Também significa observar quem está subrepresentado ou ausente nas amostras que alimentam os sistemas inteligentes, e como isso desacredita a aura de objetividade que costumamos atribuir aos dados, criando “verdades sociais” que na verdade são produtos de escolhas dos desenvolvedores (Rusanen, 2022).

As novas tecnologias ressignificam velhos dilemas, como o da privacidade, do anonimato ou da auto-imagem, e apresentam novos, como o direito pos-mortem — a quem pertence, afinal, o nosso espectro digital perfeito gerado por IA? Como posso me proteger de um “eu digital” que sobreviverá ao meu desaparecimento e pode dizer ou fazer coisas que eu jamais aprovaria?

Além disso, a introdução de novas tecnologias muitas vezes tem consequências que não antecipamos. O advento das redes sociais acabou fazendo com que as pessoas hoje circulem majoritariamente em uma pequena parte do que é a web, onde operam dinâmicas ditadas por um pequeno número de grandes empresas. As estratégias de engajamento desenvolvidas por essas empresas podem empurrar as pessoas para câmeras de eco onde uma visão única de mundo é repetida à exaustão, criando realidades fraturadas e até dando tração a conteúdos manipuladores ou extremistas.

Já está claro também que as IAs generativas, que geram imagens ou textos a partir de instruções, tendem a criar representações estereotipadas ou preconceituosas que amplificam desigualdades raciais ou de gênero existentes, ou promovem uma visão eurocentrada de mundo. Isso acontece porque nem os bancos de dados que as treinaram e nem os engenheiros que as desenvolveram representam a diversidade global. Estimular o uso ético da tecnologia significa também reconhecer que, quando encontram velhas estruturas desiguais de poder, novas tecnologias podem acentuá-las se não tiveram a equidade como princípio.

Justiça e direitos “by design”

Diversos órgãos internacionais e governamentais já estabelecem princípios para o uso ético das inteligências artificiais, e há muitas organizações cujas pesquisas e toolkits examinam as IAs pela ótica dos seus efeitos indesejados. A grande maioria dessas iniciativas, porém, opera principalmente na perspectiva de prevenir riscos e minimizar efeitos adversos. Mas pensar no desenvolvimento ético das inteligências artificiais também pode significar direcionar seu uso para alcançar objetivos positivos. Todos os guias de princípios, por exemplo, estabelecem que as IAs não devem ser utilizadas de formas que promovam discriminação; mas podemos ir além, estimulando o uso de tecnologias de IA para desenvolver uma sociedade intrinsicamente não discriminatória.

Para isso, a educação precisa promover o que a pesquisadora Letícia Cesarino chama de “desalienação técnica” – na perspectiva freiriana, um letramento que torne visíveis as estruturas sócio-técnicas que regem nossas interações. E que possibilite o empoderamento do usuário e sua autonomia frente à máquina, com base na agência algorítmica, isto é, a capacidade de perceber como a máquina funciona e por que ela funciona assim.

Se por um lado podemos capacitar os usuários das tecnologias para que reconheçam e manipulem as decisões algorítmicas, por outro podemos pensar em produtos, ambientes e plataformas que tragam incorporados em seu funcionamento princípios mais éticos; é o que chamamos de direitos “by design”. Podemos imaginar, por exemplo, redes sociais que estimulam o contato com uma pluralidade de ideias ao invés de estratégias de engajamento que promovem polarização; mecanismos de busca que nos levam a conhecer a origem e o contexto da informação; interfaces sem “autoplay”, scroll infinito, e outras estratégias de design que estimulam o usuário a permanecer conectado.

Finalmente, é bom sublinhar que as inteligências artificiais não podem ser verdadeiramente inteligentes, porque não são humanas. Uma das capacidades que elas não têm é justamente a dimensão ética — a de avaliar o impacto e as consequências de suas decisões para além do resultado imediato alcançado. Qualquer tentativa de antropomorfizá-las, atribuindo a elas qualidades humanas, nomes ou avatares simpáticos, apenas esconde o essencial: que elas são apenas aplicações de software, programadas e alimentadas por nós. E cabe a nós, enquanto coletividade e visando o bem comum, escolher os valores que irão orientar o seu funcionamento.

****

Referências:

5RIGHTS FOUNDATION. Disrupted Childhood: the cost of persuasive design. London: 5Rights Foundation, 2023. Disponível em: https://5rightsfoundation.com/uploads/Disrupted-Childhood-2023-v2.pdf. Acesso em: 27 ago. 2023.

ITO, Mizuko; CROSS, Remy; DINAKAR, Karthik; ODGERS, Candice (ORG.). Algorithmic Rights and Protections for Children. Boston: MIT Press, 2023. DOI: https://doi.org/10.7551/mitpress/13654.001.0001. Disponível em: https://direct.mit.edu/books/oa-edited-volume/5603/Algorithmic-Rights-and-Protections-for-Children. Acesso em: 27 ago. 2023.

KO, A. J. et al. Critically Conscious Computing: Methods for Secondary Education. [s.l.] criticallyconsciouscomputing.org, 2023.

RAICU, I. What is Internet Ethics? Markkula Center for Applied Ethics, 2018. Disponível em: <https://www.scu.edu/ethics/focus-areas/internet-ethics/resources/what-is-internet-ethics/>. Acesso em: 23 out. 2023

RUSANEN, A.-M. Learning the basics of Algorithmic Literacy. Disponível em: <https://www.helsinki.fi/en/news/artificial-intelligence/learning-basics-algorithmic-literacy>. Acesso em: 23 out. 2023.

--

--

Mariana Ochs

Designer, educator, Google Innovator. Coordinator of EducaMídia. Exploring design, media and technology in education, and empowering youth in the digital age.