O Problema

O Problema

Novas estratégias para enfrentar os efeitos da Inteligência Artificial

Atualmente, existe um rápido aumento no uso de sistemas e aplicativos de tomada de decisão automatizada usando inteligência artificial (IA) para objetivos tão variados quanto determinar a alocação de subsídios, créditos financeiros, seguros, pontuações para processos de seleção para postos de trabalho e muito mais. De fato, cada vez mais países criaram, ou estão criando, estratégias nacionais de Inteligência Artificial, para promover seu uso. Isso porque eles permitem resolver problemas de alta complexidade, facilitar a automação e personalizar processos, com maior eficiência de recursos.

Mas, ao mesmo tempo em que a adoção desses sistemas é massiva, as exclusões históricas são repetidas. A transformação digital excluiu, de forma multidimensional, novamente e sistematicamente as mulheres. Elas não exercem poder real na criação de regras, padrões e dados do futuro. Os sistemas automatizados são treinados usando conjuntos de dados predeterminados, que procuram representar o mundo real, mas na maioria das vezes os únicos dados existentes não refletem a realidade, mas são baseados em estereótipos e preconceitos existentes no mundo físico. Portanto, os resultados da tomada de decisão automatizada replicam esse olhar enviesado.

Por exemplo, a Amazon procurou implementar um sistema de inteligência artificial para simplificar seus processos de contratação. Ao receber um grande número de currículos, criou um sistema algorítmico que analisava quais pessoas em seus postos de trabalho tinham o melhor desempenho (dados predeterminados) e procurava entre novas candidaturas pessoas com características semelhantes, para dar prioridade à contratação. O problema é que a Amazon, como a maioria das empresas do mundo, sofre desigualdade de gênero, e sua equipe possui mais homens em áreas tradicionalmente masculinas. Portanto, a inteligência artificial começou a rejeitar os currículos de mulheres que se candidatavam a essas posições, discriminando arbitrariamente pessoas que poderiam ter se saído muito bem. Isso mostra que o machine learning codifica as desigualdades do mundo offline e suas discriminações históricas, um reflexo das informações que recebe do mundo análogo. A + é uma aliança para acabar com esse círculo vicioso e garantir que as novas tecnologias não programem e implementem em nosso futuro um sistema injusto para mulheres, meninas e outros grupos excluídos. A hora de agir é hoje, antes que seja tarde demais.