Inteligência Artificial e questões identitárias: viés ou preconceito?
Resumo do post:
- Inteligência Artificial pode ser desigual
- Exemplos dos problemas que este fato pode causar
- Como a Inteligência Artificial pode ser inclusiva
- Inteligência Artificial como meio de evolução da sociedade
*Artigo de Rafael Lourenço, vice-presidente executivo da ClearSale USA
Imagine um cenário no qual você precise do sistema de comando de voz de seu carro para fazer uma chamada de emergência, mas não consegue fazê-lo com rapidez e praticidade. Ou então, um caso em que você perca um voo internacional por causa da demora no scanner de segurança do aeroporto, que não conseguiu reconhecer seu rosto, por exemplo.
Estes cenários podem ser extremamente frustrantes. Fatos e estudos recentes mostram que a Inteligência Artificial que está por trás destes serviços, e que supostamente deveria facilitar a vida das pessoas, tem se revelado desigual e com funcionamento diferente para algumas pessoas.
O problema principal
A dignidade pessoal, a segurança nas viagens e a procura de emprego são apenas alguns dos aspectos da vida que podem ser melhorados com algoritmos – se a tecnologia aprender a reconhecer e classificar adequadamente uma gama completa de vozes e rostos. No entanto, o centro de Inteligência Artificial da Universidade de Nova York relatou, em abril, que a falta de diversidade nos ambientes corporativos de empresas deste segmento contribui para gerar ferramentas com vieses que causam danos no mundo real. Tal fato pode ser um contraponto preocupante aos benefícios que a tecnologia oferece em tantas áreas da vida moderna.
Exemplos consideráveis
Infelizmente, a biometria com alimentação artificial pode ser tendenciosa: vários estudos têm revelado que os algoritmos de reconhecimento facial e de voz tendem a ser mais precisos para homens do que para mulheres. Programas de reconhecimento facial também têm dificuldade em identificar corretamente pessoas trans e não-binárias. Os algoritmos de reconhecimento de imagem costumam ser mais precisos para pessoas com pele mais clara do que pessoas com pele mais escura. Essas discrepâncias podem criar problemas para os usuários, desde pequenas inconveniências até questões potencialmente fatais.
Segurança automotiva
Os pesquisadores do Instituto de Tecnologia da Geórgia, nos EUA, descobriram que a tecnologia de segurança automotiva não reconhece os pedestres negros. Os autores do estudo dizem que o conjunto de dados utilizados para calibrar a máquina dá pouca ênfase às pessoas com tons de pele mais escuros, fazendo com que os modelos de detecção de objetos reconheçam melhor os pedestres brancos. Os desenvolvedores de carros autônomos precisam corrigir essa disparidade para evitar que seus carros simplesmente atropelem pessoas negras, porque não as reconhecem como pedestres.
Biometria facial
Nos aeroportos dos EUA, o Departamento de Segurança Interna está testando a biometria do reconhecimento facial para processos de segurança, especialmente para viagens internacionais. O problema é que perfis de rostos que não sejam reconhecidos corretamente pela Inteligência Artificial resultarão em processos mais demorados e talvez procedimentos mais invasivos para esse público. Algumas tecnologias de reconhecimento facial têm dificuldade em identificar pessoas negras e mulheres – e ainda mais especialmente mulheres negras.
Reconhecimento de voz
A tecnologia de reconhecimento de voz supostamente facilita muitas tarefas diárias, como ditado, pesquisas na internet e navegação durante a condução de um automóvel, por exemplo.
No entanto, desde pelo menos 2002, os pesquisadores e a mídia têm documentado casos de reconhecimento de voz significativamente piores para as mulheres do que para os homens, porque os algoritmos são treinados para reconhecer vozes tipicamente masculinas como ‘fala humana’.
E o problema ainda não foi solucionado – uma redatora do The Guardian descreveu em abril as repetidas dificuldades que sua mãe passou ao tentar fazer uma simples ligação telefônica em seu carro, até optar por deliberadamente emular uma voz mais grave, para soar como um homem.
Assim como no exemplo do viés em processos IA de reconhecimento de pedestres, esses algoritmos de reconhecimento facial foram treinados com conjuntos de dados majoritariamente formados por pessoas brancas e o homens-cis. Como qualquer processo que envolva Machine Learning, o sistema precisa ‘aprender’ a partir de uma base de dados passada, e portanto a heterogeneidade desse conjunto de dados – do ponto de vista de tons de pele e gêneros – importa muito. Enquanto esse elemento não for considerado pelas empresas do setor, falhas como essas que confundem-se com discriminatórias voltarão a assombrar os avanços que essas mesmas tecnologias propõem.
Profissionais atentos
Um estudante de pós-graduação da Universidade de Washington levantou preocupações de que os sistemas de reconhecimento facial poderiam prejudicar as pessoas trans e não-binárias de várias maneiras. Os sistemas de segurança que fazem a varredura de rostos para permitir que os moradores entrem em seu complexo de apartamentos podem identificar erroneamente pessoas que não se encaixam claramente em uma categoria de gênero. Isso, argumenta o estudante, poderia causar constrangimento e até mesmo prisões indevidas.
É tentador pensar que, como os algoritmos são orientados por dados, eles gerarão resultados imparciais e justos. Mas os algoritmos aprendem identificando padrões em conjuntos de dados do mundo real, e esses conjuntos de dados podem conter padrões e vieses/preconceitosos – inconscientes ou não. O desafio para os cientistas de dados trabalhando com Inteligência Artificial é encontrar ou construir conjuntos de dados que não reforcem os preconceitos, para que a tecnologia contribua para o avanço da sociedade como um todo.
Tornando a Inteligência Artificial mais inclusiva
Utilizar conjuntos de dados mais inclusivos como ‘base de dados de treinamento’ dos algoritmos de Inteligência Artificial pode ajudar a criar ferramentas menos tendenciosas. Uma startup está trabalhando para criar um algoritmo de RH inclusivo, baseado em um amplo conjunto de dados que extrai dados de currículo e do governo para refletir com precisão a demografia da força de trabalho.
Outras etapas também são necessárias. Neste momento, o mercado de tecnologia e as empresas do Vale do Silício, por exemplo, incluem poucas mulheres, pessoas negras e LGBTQ+. Uma força de trabalho de IA mais diversificada traria perspectivas novas e experiências de vida diferentes para projetos. A transparência e o teste de viés aplicados aos sistemas podem identificar problemas antes mesmo que os produtos sejam colocados no mercado.
O centro de Inteligência Artificial da Universidade de Nova York recomenda trazer especialistas em uma variedade de campos, além da IA e da Ciência de Dados, para oferecer uma perspectiva mais ampla sobre como a tecnologia funciona em situações do mundo real. Alguns especialistas da indústria dizem que a regulamentação pode ser parte da solução. Em Washington, nos EUA, alguns senadores propuseram uma legislação que exigiria ‘responsabilização por algoritmos’ para empresas que desenvolvem ferramentas de Inteligência Artificial.
Inteligência Artificial como meio de evolução
A Inteligência Artificial tem o potencial de tornar nossas vidas mais seguras e convenientes, especialmente se treinarmos os sistemas para serem inclusivos e os usarmos com sabedoria. Ao tomar medidas agora para eliminar os problemas de viés e preconceito relacionados aos processos de construção dessas ferramentas e serviços, podemos garantir que os avanços nessa tecnologia impulsionem toda a sociedade para frente, com capacidade para evoluir cada vez mais. Em Direitos Civis, se uma só pessoa na sociedade não tem acesso, ninguém tem.
Conteúdo relacionado:
Como otimizar o processo de autenticação de identidade de usuário
Data Lake: conheça e saiba por que é importante no combate a fraudes