Bias, uma palavra que tem provocado muitas preocupações na opinião pública em especial como resultado da transformação tecnológica que hoje faz parte das nossas vidas. O termo refere-se à importância (peso) que atribuímos a determinada característica, pessoa ou grupo populacional comparativamente a outras, conduzindo a distorção da realidade. Existem exemplos clássicos de bias como a raça, o género, a idade, a capacidade financeira, etc.

Atribui-se tipicamente a responsabilidade da existência de bias aos algoritmos e programas criados utilizando as novas tecnologias aplicadas por um ramo da inteligência artificial (artificial intelligence - AI), o “machine learning”.

Na verdade a existência de bias nada tem a ver com a “democratização” do acesso à inteligência artificial que potencia a criação de algoritmos mais eficientes mas sim com as acções e decisões que todos tomamos como indivíduos forçados pelo

contexto social em que nos inserimos. A definição de sucesso de uma previsão ou de um automatismo assim como a introdução de bias é feita por nós e não pelos algoritmos.

Os bias nascem dos dados que produzimos ao longo da nossa vida, são produto estatístico da representação das decisões que gravamos nos nossos sistemas, é como se tudo o que fazemos fosse impossível de esquecer e fosse ainda alvo de

correlações constantes. Esta “memória infinita” utiliza programas avançados de computação que nos permitem tomar decisões automaticamente sem intervenção humana, de uma maneira muito mais eficiente.

Muitas vezes quando olhamos para os resultados globais de um algoritmo, como seja por exemplo a identificação de caras, comparamos com uma amostra que temos nas bases de dados e chegamos a um grau de certeza de cerca de 98% de

probabilidade de acertar nas escolhas. O que muitas vezes não fazemos é aplicar o mesmo algoritmo a amostras isoladas com base na raça e género, e é nessas situações que muitas vezes nascem os bias onde é fácil de ver por exemplo que as

mulheres de raça negra têm menos probabilidade de sucesso face aos outros. Este caso foi público depois de um teste efectuado aos diferentes motores de machine learning disponíveis para o reconhecimento facial, mas permitiu tomar ações e

ajustar os dados para aproximar à igualdade desejada.

Um dos temas mais temidos nos bias é o recrutamento e selecção de talento onde se levantam questões sociais relevantes. Recentemente, a gigante Amazon anunciou publicamente o término de um algoritmo criado internamente para recrutar

talento que se tinha tornado “biased”, discriminando mulheres. Na verdade o que aconteceu é que o algoritmo aplicou a selecção com base nos dados que a própria Amazon possuía, ou seja, será que a empresa não era já “biased” antes de qualquer algoritmo? Isto porque se os dados históricos utilizados para treinar os algoritmos representam estatisticamente a população, então o processo efectuado já reflectia essa “discriminação”.

Mas não são apenas os gigantes mundiais que utilizam estes algoritmos. Cada vez mais empresas de recrutamento e selecção procuram na AI novas formas de identificar talento. Na Randstad utilizamos algoritmos de AI como “co-piloto” do

humano, deixando a decisão e escolha ao consultor, ao mesmo tempo que lhe damos super poderes alavancados pelos algoritmos de machine learning. Estes superpoderes não são mais do que dados correlacionados que apoiam um processo

de decisão, mas são sempre um meio e nunca um fim em si mesmo. Na perspectiva mais tecnológica estamos preocupados não apenas com a recolha dos dados, mas com a garantia de que estes algoritmos são descaracterizados das características.

Ou seja, não ganham vícios e discriminações que criem bias. Só com a constante supervisão e monitorização dos dados é possível identificar as características que levam os algoritmos a fazer as escolhas justas.

Recentemente a CEO da Pymetrics, empresa que recorre à gamification para criar perfis de assessment, revelou que é habitual encontrar bias na preparação dos algoritmos para os seus clientes mas que faz parte do próprio software a análise das características que provocam bias, o que permite eliminar as mesmas tornando os algoritmos mais “justos”. A Pymetrics é uma ferramenta que permite criar perfis de top performance com base em algoritmos de inteligência artificial e técnicas do

domínio da neurociência, possibilitando assim criar assessments que consigam identificar com grande precisão os melhores talentos para a função em causa.

Os algoritmos não inventam, a criatividade é uma característica humana que pode estar subjacente à sua criação, mas não ao seu funcionamento. Os algoritmos são espelho do nosso passado, do que fizemos e é essencial olhar para os dados que

resultam deste processamento de informação com coragem, interiorizando os efeitos criados nas características e definir acções. Os bias não são um problema, são efectivamente positivos porque nos ajudam a gerir e a corrigir as nossas

decisões. Porque sempre existiram bias, só estavam menos visíveis.

 

 

Gonçalo Vilhena, CIO da Randstad Portugal