Uma pesquisa conduzida pela Universidade do Texas, em Arlington, busca identificar e eliminar vieses preconceituosos em bancos de dados. A iniciativa pode representar um passo importante para combater casos de racismo relacionados à inteligência artificial.

O estudo vai analisar diferentes aplicações web em sites de compras, imobiliárias, mapas e outras ferramentas que costumam depender de bases de dados. Muitas delas fornecem resultados preconceituosos que são influenciados pelos dados coletados, o que pode prejudicar a experiência dos usuários de forma grave. 

O objetivo da nova pesquisa, portanto, é investigar possíveis soluções para remover esses vieses tendenciosos. Além da Universidade do Texas, o projeto conta com a participação da Universidade de Illinois, em Chicago, e da Universidade de Michigan.

Dados influenciam decisão dos algoritmos

Uma das principais preocupações em relação à inteligência artificial é o fato da tecnologia expor ainda mais as minorias a casos de agressões. Isso não significa que os algoritmos são programados necessariamente de forma preconceituosa, mas esses vieses são introduzidos pelos dados utilizados pelos algoritmos ao tomar decisões

Isso inclui os mais variados tipos de informação, desde a região em que determinado indivíduo mora até o seu histórico de navegação na internet. Esse mecanismo está presente em todo lugar, embora muitas vezes passe despercebido. 

Ao acessar um site de compras, os resultados da busca por um produto serão exibidos de acordo com o que o algoritmo entende que é de interesse para aquele perfil de usuário. Por esse motivo, a experiência de cada indivíduo em uma aplicação web é diferente. 

Embora isso possa causar uma frustração no caso de uma compra online, as consequências dos bancos de dados tendenciosos podem ser mais preocupantes em outras situações. 

Nos Estados Unidos, por exemplo, já foram reportados casos em que sites de agências imobiliárias direcionavam indivíduos de determinadas etnias para bairros específicos em vez de oferecer opções mais adequadas ao que eles estavam buscando. 

Como combater vieses preconceituosos

Para combater esse sistema, as pessoas teriam que exigir que as empresas revelassem seus algoritmos e os dados utilizados a fim de demandar mudanças. No entanto, é muito improvável que isso aconteça, conforme apontam os pesquisadores.

Por isso, a solução que eles encontraram foi observar diversos sistemas, com diferentes perguntas e respostas, para utilizar engenharia reversa nos algoritmos e, assim, identificar tendências que indiquem a presença de vieses preconceituosos

O estudo contou com um investimento de US$ 416 mil da National Science Foundation (NSF), agência governamental dos Estados Unidos que promove pesquisas e iniciativas de educação nas áreas de ciência e engenharia. A expectativa de duração do projeto é de três anos. 

Casos de racismo envolvendo IA

Os casos de racismo envolvendo inteligência artificial não são limitados a uma única região geográfica. Este é um problema antigo que vem sendo observado em diferentes países e em contextos variados.

No Brasil, por exemplo, já vimos relatos de pessoas negras sendo presas por engano após serem identificadas por um sistema de reconhecimento facial. Esse é um exemplo claro de como bancos de dados inadequados podem aumentar ainda mais as chances de minorias serem condenadas injustamente

Os mesmos incidentes relacionados à segurança pública já ocorreram nos Estados Unidos. Isso não se restringe apenas às tecnologias adotadas pelo governo, no entanto. As gigantes das redes sociais também continuam a receber denúncias sobre as falhas em seus algoritmos. 

1 Shares:
Você também pode gostar