Home Outros O que é a governança de algoritmos?
governanca-de-algoritmos

O que é a governança de algoritmos?

by Gabriel Duque

Em uma era em que soluções de inteligência artificial, machine learning e biometria estão presentes cotidianamente em nossas vidas, muito se fala sobre um dos elementos mais fundamentais para que essas tecnologias funcionem: os algoritmos.

Eles estão se tornando cada vez mais sofisticados, o que faz com que muitas pessoas pensem nos algoritmos como cérebros pensantes tomando decisões de maneira autônoma por trás das ações de uma máquina. Mas as decisões de um ser humano sempre estão por trás, é claro, mesmo no caso da IA e do machine learning.

Consequentemente, muitas vezes, os algoritmos por trás de um serviço de reconhecimento facial, por exemplo, são estruturados de forma enviesada, o que levanta questões morais quanto ao uso da tecnologia e ainda atrapalha a sua funcionalidade plena.

Foi nesse contexto que surgiu o conceito de governança de algoritmos, que utiliza uma série de mecanismos para reavaliar a maneira com que eles tomam decisões e fazem escolhas. Continue a leitura para entender melhor o que é a governança de algoritmos e por que isso vêm se mostrando cada vez mais relevante.

As cada vez mais complexas funcionalidades dos algoritmos

Eles estão nos buscadores da internet e nas ferramentas que as lojas usam para analisar as preferências dos clientes — mas, hoje, os algoritmos também são responsáveis por ações com um impacto direto muito maior na sociedade, como veículos autônomos, identificação de pessoas e exames de saúde.

Nesses casos, os dados coletados e analisados pelos algoritmos são utilizados para que eles tomem decisões complicadas e de grande impacto.

Um veículo autônomo, por exemplo, não precisa apenas saber se deve virar à esquerda ou à direita, mas também o que fazer caso um pedestre atravesse a faixa de segurança com o sinal fechado ou se houver um motorista irresponsável na estrada. Diante de riscos de acidente, o algoritmo consegue tomar decisões éticas de forma rápida e não-enviesada?

Em março de 2018, os Estados Unidos tiveram seu primeiro acidente envolvendo um carro autônomo. Uma mulher, caminhando fora da faixa de pedestres, foi atropelada por um veículo que rodava no modo automático e faleceu no hospital. Havia uma motorista no carro para casos em que o automóvel não fosse capaz de operar sozinho, mas esse sistema de segurança não chegou a ser ativado antes que a pedestre fosse atropelada.

O mesmo vale para exames de saúde com o intuito de não apenas diagnosticar o paciente, mas também de propor o melhor tratamento para ele. Há uma série de variáveis a serem analisadas nesse caso — qual opção tem maiores chances de cura? Qual é a menos agressiva? E a mais acessível financeiramente? —, e elas são muito particulares a cada indivíduo. É possível deixar uma decisão tão significativa nas “mãos” de um algoritmo?

O que pode acontecer sem a governança de algoritmos

Casos em que sistemas dotados de machine learning para identificação de indivíduos agem de forma enviesada e/ou discriminatória têm se tornado cada vez mais recorrentes.

Nos Estados Unidos, a IA é utilizada por departamentos de polícia para tomar decisões estratégicas sobre para onde equipes deveriam ser enviadas. Além disso, oficiais podem contar com sistemas de reconhecimento facial para identificar suspeitos. A tecnologia deve ser implementada nas operações da polícia do Rio de Janeiro durante o Carnaval.

Indo mais longe, os policiais norte-americanos ainda podem aproveitar-se da IA para “prever” quais pessoas que passaram pelo sistema carcerário teriam mais chances de reincidência. A questão é: tudo isso realmente otimiza o trabalho das forças policiais e aprimora a segurança, ou apenas reforça o quanto os dados colhidos são enviesados?

Os algoritmos que decidem para onde a polícia deveria ir e se uma pessoa tem mais ou menos chances de retornar para o sistema carcerário fornecem essas respostas após analisar os dados providenciados pelo departamento policial.

Por isso, há a ideia de que essas análises são totalmente imparciais, já que são feitas por uma máquina. A questão é que a máquina aprende e toma decisões a partir dos dados fornecidos a ela (por pessoas) e com base em um algoritmo (desenvolvido por pessoas).

Ou seja, é preciso ir além e analisar a origem desses dados. Nos Estados Unidos, por exemplo, há um histórico de foco por parte da polícia em comunidades minoritárias e de baixa renda. Ou seja, os dados coletados não têm acuracidade — essas comunidades têm um índice de criminalidade maior não por gerarem mais criminosos, mas por serem alvo de uma forma que bairros de classe alta não são.

Algoritmos analisam dados em busca de padrões. Então, com informações relacionadas a criminalidade, eles provavelmente identificariam que pessoas de baixa renda têm mais chances de reincidência. Entretanto, isso é uma correlação, não uma causalidade. O algoritmo não é capaz de inferir que baixa renda causa criminalidade. Mas é isso que seria “argumentado” ao estabelecer o score de reincidência de um indivíduo.

Isso faria com que os novos dados colhidos reforçassem ainda mais esse ponto de vista enviesado. O resultado final é um ciclo constante em que dados anteriores geram mais dados incorretos e assim por diante.

Para o reconhecimento facial, qualquer que seja o objetivo, os dados utilizados nem sempre permitem resultados não-enviesados. Em 2018, a pesquisa Gender Shades descobriu que os sistemas de reconhecimento facial vendidos pelas empresas IBM, Microsoft e Face++, ao identificar o gênero de uma pessoa, apresentavam uma diferença de até 34,4% diante de rostos masculinos de pele clara e rostos femininos de pele escura.

Isso acontece porque os algoritmos são treinados a partir de uma quantidade maior de rostos masculinos e/ou de pele clara do que de mulheres e/ou de pele escura. Dessa forma, eles entendem determinadas faces como “padrão”, enquanto as demais não geram estatísticas tão apuradas.

Conforme as tecnologias baseadas em inteligência artificial e machine learning tornam-se mais e mais comuns e ampliam seus aprendizados com base em dados enviesados, essa diferenciação e falta de acurácia — e as consequências disso — mostram-se mais significativas.

Como a governança de algoritmos garante melhores resultados

A governança de algoritmos entende que há diversas situações em que máquinas não podem tomar decisões sozinhas, pois os dados que as guiam não podem embasá-las de forma não-enviesada ou levando em consideração as nuances de uma situação particularmente complexa.

Retomando o que destacamos no primeiro parágrafo, algoritmos nascem de cérebros humanos. Então, como podemos esperar que algoritmos sempre acertem ao tomar decisões éticas e morais que seriam complicadas para qualquer pessoa?

Uma possível solução é utilizar a incerteza como forma de fazer com que algoritmos ajam de forma mais ética. Isso mesmo — ao assumir que os algoritmos não estão capacitados para tomar determinadas decisões, é possível otimizar seu uso e reduzir danos.

Afinal, há inúmeras situações com soluções incompatíveis em que seria efetivamente perigoso, ou pelo menos não recomendado, deixar a decisão por conta de um algoritmo que busca uma única resposta definitiva. Nesses casos, essa decisão final se sobreporia à ética e à moral do(s) indivíduo(s) envolvido(s).

A noção de que dilemas sem uma solução definitiva alcançam também o universo da IA leva à seguinte ideia: e se construirmos algoritmos dotados de incerteza? Seres humanos são capazes de tomar decisões mesmo diante de incertezas sobre qual é o caminho certo a tomar, então por que não expandir isso para os algoritmos que tomam decisões por nós?

Considere, por exemplo, um algoritmo que precisa decidir entre 4 variáveis, que vamos chamar de A, B, C e D. Uma das maneiras de construí-lo dotado de incerteza é através da técnica de ordenação parcial. Aqui, a programação especifica que o algoritmo sempre vai preferir A a B e C a D, mas não determina a preferência entre B e C.

A segunda técnica é chamada de ordenação incerta, em que há uma probabilidade para cada variável. Então, em 75% das vezes, o algoritmo vai preferir A a B, e em 50% das vezes vai preferir C a D.

Essa incerteza faria com que o algoritmo determinasse uma lista de possíveis soluções entre as quais seres humanos escolheriam. Dessa forma, a IA faz seu trabalho, listando o cenário e analisando as possibilidades, mas quem toma a decisão final são pessoas.

Conforme as tecnologias da inteligência artificial e do machine learning são aprimoradas e passam a fazer parte das nossas vidas, estratégias e processos em cada vez mais aspectos, a complexidade envolvida com elas também cresce. Sendo assim, a governança de algoritmo é uma maneira significativa de lidarmos melhor com as consequências disso.

As soluções da idwall fazem a validação da identidade e dos antecedentes de um indivíduo e é a empresa que decide se aquela pessoa faz sentido ou não para o negócio. Para saber mais, preencha o formulário abaixo e converse com um de nossos especialistas:

Related Posts

Loading Facebook Comments ...