mai 278 min

Ética na inteligência artificial: desafios e abordagens

Atualizado: jun 25

A ética na IA possui implicações na integração da inteligência artificial em vários aspectos da sociedade. Ao criar um site com inteligência artificial, por exemplo, as considerações éticas tornam-se fundamentais. Os desenvolvedores devem garantir que os algoritmos de IA sejam projetados e implantados de forma responsável, com transparência e responsabilidade. Além disso, há uma ênfase crescente em garantir que os sistemas de IA priorizem os valores humanos e o bem-estar.

Há mais de um ano eu me debruço sobre este tópico e vou falar bastante neste artigo sobre os desafios éticos e morais da inteligência artificial.

Mas, antes, deixa eu me apresentar:

Prazer, sou o Gustavo Miller. Sou jornalista de formação, trabalhei por mais de 10 anos em veículos como Estadão e Grupo Globo, já fui eleito LinkedIn Top Voice em 2018 e há seis anos migrei para o marketing. Após me aventurar pela Red Bull e Shopify, entrei no mundo das startups e da inteligência artificial. Estive no último ano à frente da comunicação global da Defined.ai, empresa que justamente defende a bandeira da IA ética e responsável.

O que aprendi, logo em meu primeiro dia de trabalho, é que a inteligência artificial é algo antigo, dos tempos de Alan Turing. Engana-se quem acredite que a IA é uma inovação que surgiu em 2023 popularizada pela OpenAI. Na verdade, este campo da computação moderna está entre nós há décadas, e o seu próprio nome surgiu lá nos anos 1950. Ela está há anos entre nós, seja dentro do algoritmo de recomendação de filmes e séries da Netflix, seja na função de autocompletar mensagens tão comum nos emails.

Leitura bônus: como criar um site.

O que mudou foi a chegada fulminante da IA Generativa, modelos de Inteligência Artificial projetados para gerar novos conteúdos sintéticos em forma de textos, imagens, áudios ou vídeos. Trata-se de uma tecnologia tão poderosa que encanta, e daí a sua enorme adoção – a empresa levou apenas dois meses para chegar aos 100 milhões de usuários ativos, enquanto o Facebook levou 4,5 anos para chegar ao mesmo número e, o Instagram, cerca de dois anos.

É aí que aparecem os desafios éticos e morais da inteligência artificial, pois a tecnologia evolui mais rápido que a sua regulação.

O que é ética

Quando você vai compra uma roupa, existe uma etiqueta, certo? Ali está descrito o material usado, sua origem e onde foi fabricado. Marcas orgânicas chegam até a descrever o quão sustentável foi a confecção daquele produto – produzido "eticamente" segundo algumas diretrizes e certificados criados a partir de regras e regulamentações claras.

Não existe um "selo de origem" obrigatório para a inteligência artificial, ou seja, um indicativo transparente que diga de onde vêm os dados e como eles foram coletados. Por que isso importa? Porque os sistemas de IA são imparciais e dependem desses dados para serem treinados. A coleta e o uso responsável de dados são fundamentais para evitar que algoritmos perpetuem e reforcem padrões discriminatórios.

Como isso aconteceria? Se existissem definições éticas claras no desenvolvimento de soluções de IA. Em outras palavras: uma regulação.

O que é inteligência artificial?

Inteligência Artificial (IA) é um campo da ciência da computação focado na criação de sistemas que podem executar tarefas que exigem inteligência semelhante à humana. Essas tarefas incluem aprender com os dados, raciocinar para resolver problemas e adaptar-se a novas situações.

As tecnologias de IA abrangem uma ampla gama de aplicações, desde assistentes virtuais como Siri e Alexa até carros autônomos e diagnósticos médicos avançados. As técnicas de IA incluem aprendizado de máquina, que permite que os computadores aprendam com os dados, e aprendizado profundo, que permite o reconhecimento de padrões complexos.

Embora a IA ofereça inúmeros benefícios, também apresenta desafios éticos relacionados ao preconceito, à privacidade e ao futuro do trabalho. Compreender as capacidades e as implicações éticas da IA é crucial para o seu desenvolvimento responsável e implantação na sociedade.

Leia também: quais são os tipos de IA?

Qual a importância da ética na IA?

Mas o que seria exatamente regular a IA? A integração da inteligência artificial em diversas facetas da sociedade tem trazido uma miríade de considerações éticas. Daí a importância de trazer para o debate o conceito de ética na inteligência artificial.

Veja o viés algorítmico, por exemplo, no qual os sistemas de IA podem inadvertidamente perpetuar e ampliar desigualdades sociais e preconceitos existentes. O jornal Washington Post lançou um projeto multimídia que mostra como imagens geradas por IA podem ser enviesadas, e reforçar temas como sexismo e racismo.

A questão da responsabilidade da IA representa um dilema ético significativo. À medida que os sistemas de inteligência artificial se tornam cada vez mais autônomos, determinar a responsabilidade em caso de erros ou resultados adversos se torna inerentemente complexo. Quem é responsável quando um veículo autônomo impulsionado por IA se envolve em um acidente, por exemplo? O fabricante, o programador ou o órgão regulador?

Este tipo de questão se faz necessária porque a IA Generativa tem um poder de encantamento enorme, como já dito anteriormente. Fornecer autorretratos para virarem avatares de desenhos da Pixar pode soar divertido, mas o que acontece nos bastidores com esses dados fornecidos de forma gratuita para fazerem parte de uma trend?

Justamente por isso que a questão da violação da privacidade emerge como um dos urgentes desafios éticos e morais da inteligência artificial. A coleta e análise ubíqua de vastas quantidades de dados pessoais levantam preocupações sobre a autonomia e consentimento individual.

Ética na inteligência artificial: por que dados importam

Na IA, tudo começa com os dados. Os algoritmos precisam ser alimentados por bancos de dados gigantescos para poderem ser treinados. E de onde vêm tais dados? É a pergunta que a maioria das empresas do setor se esquivam em responder.

Existe uma lei informal de que tudo que está na internet é de domínio público, mas não é bem assim que a banda toca. A OpenAI, por exemplo, vasculha fóruns, redes sociais, portais de notícia e plataformas de vídeo para a suas soluções. O Google e seu Gemini, citados no início deste texto, correram logo para fazerem um acordo com o Reddit para poderem usar os dados de seus milhares de usuários para treinar a sua plataforma.

Tais licenciamentos são importantes, mas estão longe de resolver a celeuma da ética na inteligência artificial. É somente um arranhão na superfície do problema: não importa apenas auditar a origem dos dados, é necessário também saber a credibilidade e veracidade da fonte, além de seu próprio consentimento.

Leitura extra: as melhores ferramentas de inteligência artificial para criar textos.

Ao exigir que as empresas divulguem algoritmos de IA, fontes de dados e critérios de tomada de decisão, os reguladores capacitam as partes interessadas a examinar os sistemas de IA quanto a preconceitos, erros e consequências não intencionais. 

Fomentar uma cultura de inovação responsável implica integrar educação e conscientização ética no tecido da pesquisa e desenvolvimento de IA. Ao instilar princípios éticos desde o início, os praticantes podem identificar e mitigar proativamente possíveis armadilhas éticas, promovendo assim o avanço responsável das tecnologias de IA.

A questão crucial final é que tentar regular excessivamente a IA pode ser um entrave à inovação. Peguemos como exemplo os usos da inteligência artificial no campo político. Durante o período de eleições, tais ferramentas podem ajudar a baratear o custo de campanhas políticas ao acelerar a produção de peças publicitárias, por exemplo.

Mas isso é apenas um uso básico: a IA Generativa tem usos muito mais complexos e pode ajudar a amplificar a mensagem de um candidato de uma forma mais inclusiva. Os imigrantes são o centro de um grande debate na Europa e políticos populistas, em sua maioria ligados à extrema-direita, têm adotado discursos antimigratórios.

Um candidato a favor da vinda de imigrantes, que queira trazer votos desta população, pode utilizar ferramentas de IA para traduzir automaticamente os seus discursos em outros idiomas ou mesmo sotaques. É possível até mesmo criar um avatar em fluente em linguagem de sinais!

O outro lado da moeda é que a IA também pode ser perigosa, por isso novamente a importância do debate sobre o que é a ética na inteligência artificial. A mesma solução de tradução de um discurso para outros idiomas pode ser usada para alterar um discurso e propagar notícias falsas e desinformação contra adversários políticos. O mesmo avatar pode ter uma versão mais realista e manipulada, os tais deepfakes.

A regulação rápida é um dos principais desafios éticos e morais da inteligência artificial. O Brasil, curiosamente, é referência: o Tribunal Superior Eleitoral (TSE) proibiu no início do ano o uso de IA para criar conteúdos falsos no período de propaganda eleitoral. Uma novidade é a obrigatoriedade de informar explicitamente o uso de inteligência artificial na produção de peças de comunicação.

Um ponto interessante da Resolução nº 23.610/2019 é que ela responsabiliza não apenas os candidatos e partidos, mas também os provedores e empresas de tecnologia. A questão é que essas companhias muitas vezes preferem pagar as multas a se autorregularem.

Ética na inteligência artificial: exemplos de IA responsável

Uma boa metáfora para exemplificar os desafios éticos e morais da inteligência artificial é a indústria da moda. Durante as últimas décadas, diversas denúncias de trabalho escravo em fábricas foram notícia. Na esteira disso surgiram marcas que promovem um consumo mais consciente e sustentável de ponta a ponta. 

Confira também: os melhores sites de inteligência artificial para criar sites profissionais.

Na IA já começa a surgir um movimento interessante. Há empresas que dizem seguir normas éticas na captação de dados e na produção de conteúdo, já há cursos sobre IA ética e, claro, fóruns governamentais para discutir o tema.

Na conferência anual, empreendedores, líderes políticos e acadêmicos se encontram para discutir e identificar soluções de IA para avançar nos objetivos de desenvolvimento sustentável.

Abaixo, seguem uns exemplos de possíveis usos de inteligência artificial e ética:

Diagnósticos em saúde
 

Ferramentas de diagnóstico alimentadas por IA podem auxiliar profissionais de saúde a detectar doenças com precisão a partir de exames de imagem médica. Isto é feito por meio de uma meticulosa anotação de dados e validação algorítmica (olha a necessidade humana!). Ao adotar práticas de IA responsável desde o início, tais soluções éticas não apenas aprimoram a precisão do diagnóstico, mas também protegem a privacidade do paciente e garantem acesso equitativo à saúde.

Gerenciamento de contratações

O setor de Recursos Humanos que utilizar plataformas de contratação projetadas eticamente terá por trás uma tecnologia que utiliza algoritmos para mitigar preconceitos e promover a diversidade e a meritocracia durante todo o processo de recrutamento.

A principal vantagem da adoção desse tipo de solução ética é a garantia de análise dos perfis de candidatos de forma holística, focando em habilidades e qualificações enquanto contornam variáveis discriminatórias como gênero, etnia ou origem socioeconômica. Em outras palavras: ao fomentar um ambiente de igualdade, as implementações de IA responsável abrem caminho para uma força de trabalho mais inclusiva.

Sustentabilidade ambiental

As medidas de IA responsável podem contribuir para os esforços de sustentabilidade ambiental, otimizando o uso de recursos, reduzindo o impacto ambiental e mitigando as mudanças climáticas. Pegue como exemplos as redes elétricas inteligentes alimentadas por IA, que podem otimizar a distribuição de energia e reduzir o desperdício e a dependência de combustíveis fósseis.

Parece complicado de entender, mas a garantia de implementação de soluções éticas de IA podem significar algoritmos energeticamente eficientes, minimizando a pegada de carbono de centros de dados e garantindo transparência em avaliações de impacto ambiental.
 

Equidade na educação

Ao implementar práticas de IA responsáveis e éticas, como garantir inclusão e diversidade nos dados de treinamento, as instituições educacionais podem aproveitar o potencial da inteligência artificial para promover a equidade na educação e melhorar os resultados de aprendizagem para todos os alunos, independentemente de sua origem ou circunstâncias. 

Inteligência artificial e ética: conclusão

A busca pela ética na inteligência artificial não é apenas uma abstração teórica, mas sim um imperativo moral que exige ação coletiva e compromisso da sociedade como um todo. Setores privados e públicos, e aqui fala-se explicitamente de governo e empresas de tecnologia, precisam chegar a um meio termo entre regulação e inovação.

Trazer este tema para o debate é de extrema importância para conscientizar o seu uso, promover a educação em ética da IA e também desmistificá-la. Também muito se pergunta se a inteligência artificial vai roubar o emprego das pessoas, quando o foco deveria ser o quanto ela pode ajudar na produtividade do trabalho dentro das empresas.

O que é certo é que a IA já é parte integrante de nossas vidas, estando presente como um assistente virtual no computador do trabalho e no celular no bolso. No entanto, os reais benefícios dessa nova realidade só poderão acontecer por meio de um compromisso firme com a ética e responsabilidade.

Por Gustavo Miller

Linkedin Top Voice - Especialista em Marketing de Conteúdo e Inteligência Artificial

Líder de marketing com mais de 15 anos de experiência na elaboração e execução de campanhas de sucesso para gigantes do setor. Recentemente, liderou o marketing da Defined.ai, trabalhou globalmente com marcas como Red Bull e Shopify. Gustavo também é reconhecido como LinkedIn Top Voice e membro da equipe LinkedIn Global Creators.