Para Nobel Daniel Kahneman, algoritmos com viés facilitam a polarização política
Autoridade em economia comportamental, professor israelense palestrou em evento sobre uso de dados para negócios nesta terça-feira (30).
Daniel Kahneman, autor do best seller “Rápido e Devagar: Duas Formas de Pensar”, prêmio Nobel de Economia e autoridade mundial em economia comportamental, afirmou nesta terça-feira (30), em São Paulo, que algoritmos enviesados facilitam a polarização política nos Estados Unidos e em outras partes do mundo.
Viés algorítmico é um conceito que considera que máquinas treinadas por inteligência artificial podem incorporar decisões baseadas em vieses humanos no processo de aprendizagem, como a discriminação.
Em discurso durante a 5ª edição do DDB (Data Driven Business), evento sobre dados para negócios realizado pela Neoway e a bolsa brasileira, a B3, o psicólogo e professor universitário israelense citou como exemplo uma pessoa que é a favor da pena de morte e, por consequência, é frequentemente exposta a dados que estão em linha com o seu modo de pensar. “Essas pessoas não obtêm informações que estão fora da sua própria bolha”.
O Nobel mencionou como os ruídos, especialmente nas redes sociais, influenciam a democracia, especialmente com o uso cada vez mais desenfreado de fake news (notícias falsas). “Vai melhorar tanto a qualidade da fake news que vai ser difícil a distinção entre o que é falso ou verdadeiro”, disse.
Ao falar sobre o algoritmo enviesado, Kahneman contou sua própria experiência com o streaming da Netflix (NFLX34). “Enquanto estou fazendo exercícios, assisto a série violentas. À noite, gosto dos programas mais calmos, mas a Netlfix sempre sugere coisas violentas. Acho que a Netflix não entende muito bem o que eu quero”, disse.
De acordo com o especialista, em muitas situações o algoritmo é enviesado por ser feito de maneira errada. Ele citou, por exemplo, a gigante Amazon (AMZO34), que criou um sistema de inteligência artificial de contratação que passou a dar preferência aos homens no preenchimento das vagas, porque o banco de currículos era predominantemente formado por pessoas do sexo masculino.
Algoritmo como aliado
Ao mesmo tempo, Kahneman reiterou sobre como enxergamos os algoritmos de forma enviesada e que suspeitamos de tudo o que não seja humano. “Os carros autônomos são mais seguros do que as pessoas no volante, mas nós não queremos aceitar. Se a Tesla causou um acidente fatal, vamos achar que um ser humano jamais faria isso, é um pouco do viés”, disse.
O especialista, que é autor do livro: “Ruído: uma falha no julgamento humano”, acrescentou sobre os ruídos que ocorrem em diferentes áreas justamente por envolver a presença humana, como é o caso da condenação de um réu. “Estudos mostram que os juízes são mais severos quando seu time perde, por exemplo”.
Kahneman citou ainda uma auditoria de ruído que fez em uma empresa de seguros. Na ocasião, especialistas da própria companhia precisaram cotar o valor dos seguros de acordo com o risco. No fim do estudo, houve uma diferença de 50% entre os valores estimados, enquanto os executivos da empresa aguardavam uma variação entre 5% e 10%.
Felicidade
Kahneman também falou durante o evento sobre o conceito de felicidade. Segundo ele, a parte social, como conviver com pessoas com quem se ama, é mais importante para a felicidade do que a satisfação na vida, que envolve outros atributos como dinheiro, sucesso e profissão, por exemplo.
De acordo com o Nobel, há duas formas de considerar o significado da felicidade: “Uma das formas é perguntar: você é feliz? Mas é possível monitorar a forma como as pessoas vivem e perguntar como se sentem quando estão executando algo, quando estão vivendo”.