Viés algorítmico
Escrito por Breno Lívio.
Last updated
Was this helpful?
Escrito por Breno Lívio.
Last updated
Was this helpful?
O viés algorítmico descreve erros repetíveis e sistemáticos em um sistema de computador que criam resultados injustos, tais como privilegiar um grupo arbitrário de usuários em detrimento de outros. O viés pode surgir devido a muitos fatores, incluindo mas não limitado ao desenho do algoritmo ou ao uso não intencional ou imprevisto ou decisões relacionadas à forma como os dados são codificados, coletados, selecionados ou usados para treinar o algoritmo. O viés algorítmico é encontrado através de plataformas, incluindo mas não limitado aos resultados dos mecanismos de busca e plataformas de mídia social, e pode ter impactos que vão desde violações inadvertidas da privacidade até o reforço de viés social de raça, gênero, sexualidade e etnia.
Esse tipo de algoritmo, como observado pela definição, tem a internet como um dos pontos centrais nessa discussão. É muito importante nos atentarmos a como a internet em si foi criada.
Nas origens do projeto da Internet, não se pensou em perceber algo como viés de algoritmo.
Os para a criação da internet pela DARPA foram:
1) A comunicação na Internet não pode parar em função de falhas;
2) Deve suportar múltiplos tipos de serviços e dispositivos;
3) Deve acomodar múltiplas redes;
4) Deve ser administrada de forma distribuída;
5) O custo deve ser efetivo;
6) Entrada de novos nós deve ser simples
7) Recursos na rede devem facilmente identificáveis para responsabilização
Como podemos ver, evitar discriminações não foi um dos principais planos para a construção da Internet como a conhecemos.
O viés que surge nos algoritmos é geralmente humano, e o viés é nada mais que uma falha cognitiva na formação do raciocínio. Há vários tipos de vieses humanos que contribuem para que a máquina e seu algoritmo fique enviesado.
Já falado no assunto de câmaras de eco no tópico de redes sociais, é basicamente a tendência a buscar informações que validem suas crenças.
A tendência de prestar atenção ao estímulo sensorial ou emocional dominante em seu ambiente, e negligenciar dados relevantes.
Temos a tendência de formar uma opinião muito rapidamente. Não é difícil desenvolver uma solução algorítmica para um problema bem rápido, mas não é difícil como pensar além do problema.
Efeito de adesão, disponibilidade heurística, viés de expectativa e assim por diante.
Considerando os vieses apresentados é esperado que o enviesamento ocorra de alguma forma em, por exemplo, algoritmos de aprendizado de máquina. Disso é possível observar vários casos que os problemas começaram propriamente com os desenvolvedores.
Provavelmente um dos problemas mais conhecidos no assunto. Muitas tecnologias de inteligência artificial acabam tendo uma maior dificuldade de reconhecer pessoas negras devido à forma como esses algoritmos foram desenvolvidos.
É importante notar que essa situações ocorrem principalmente ao considerar as pessoas que desenvolveram esses sistemas. Muitos em sua maioria são homens, brancos e heterossexuais. Há uma disparidade grande na questão que envolve cor e gênero na indústria.
Consequentemente, até mesmo os bancos de dados que serão usados para criar essas tecnologias vão possuir em sua grande parte, por exemplo, fotos de pessoas brancas do que pessoas negras. Com esses dados desbalanceados é muito mais fácil de criar modelos de aprendizado de máquina menos precisos.
Temos, por exemplo, a que tem uma maior chance de atropelar pessoas negras por não conseguir reconhecê-las. Pesquisadores do Georgia Institute of Technology descobriram que sistemas de detecção, como os sensores e câmeras usadas em carros automotores, são melhores na detecção de pessoas com tons de pele mais claros.
Outra situação parecida foi com a que contavam com reconhecimento facial com a intenção de reconhecer os estudantes, evitando problemas de cópia e afins. Entretanto, novamente, o sistema usado teve dificuldade para reconhecer os estudantes negros.
De mãos dadas, outra discriminação comum com algoritmos envolve questões de gênero. Assistentes virtuais de voz como Alexa e Siri, de acordo com a própria , ajudam a perpetuar exclusão de gênero. Isso ocorre por conta da forma como esses assistentes virtuais foram feitos, com diversas características submissas.
Também da Amazon, um sistema interno deles com foi descartado por conta da forma como ele tinha um viés contra mulheres, dando pouca preferência a elas. Isso aconteceu principalmente por conta do sistema ter analizado padrões de funcionários contratados nos últimos 10 anos, e uma grande parte deles eram homens.
The Design Philosophy of the DARPA Internet Protocols -
List of cognitive biases -
Self-driving cars more likely to drive into black people, study claims -
Online exams raise concerns of racial bias in facial recognition -
Are robots sexist? UN report shows gender bias in talking digital tech -
Amazon scraps secret AI recruiting tool that showed bias against women -