Pular para o conteúdo principal

Google conserta seu algoritmo “racista” apagando os gorilas - JAVIER SALAS Twitter 16 JAN 2018 - POR: EL PAÍS

Google Photos confundia pessoas negras com macacos. Este patch mostra a opacidade dos algoritmos

Resultados do Google Photos à busca por “gorilas” do usuário que fez a denúncia @JACKYALCINE

Em junho de 2015, um usuário do Google Photos descobriu que o programa etiquetava seus amigos negros como gorilas. A inteligência artificial do Google não era capaz de distinguir a pele de um ser humano da dos macacos, como gorilas e chimpanzés. Esse viés racista da máquina forçou o Google a pedir desculpas e prometeu encontrar uma solução para o erro. Dois anos depois, a solução é clara: para que o programa não confunda seres humanos com gorilas, tirou os gorilas do buscador. E os chimpanzés. E os macacos.
A revista Wired fez o teste, alimentando a máquina com milhares de fotos, incluindo de grandes símios e outras espécies de macacos. O programa – criado para classificar sozinho as fotos dos usuários usando inteligência artificial – responde perfeitamente quando você pede que encontre orangotangos, gibões, babuínos ou saguis, encontrando-os sem problemas. Mas não responde quando você pede “macacos”, “gorilas” e “chimpanzés”, mesmo que tenha algumas fotos guardadas. O patch do Google é fazer desaparecer estes animais do léxico deste aplicativo para a gestão de fotos pessoais (não no buscador de imagens). O programa também sabe buscar “homem negro” ou “mulher negra”.
A forma de resolver o problema é apagar o problema: autocensurar essas etiquetas. “A tecnologia de etiquetar imagens ainda é jovem e, infelizmente, não é perfeita”, respondeu um porta-voz do Google, admitindo o patch. O Flickr teve um problema semelhante, ao etiquetar negros como macacos. O algoritmo do Facebook permite diferenciar os usuários por raça. Esses subprodutos inesperados estão em toda parte.
“Aqueles que estão em grupos historicamente marginalizados – mulheres, não brancos e menos educados – são os mais temerosos da tecnologia”, diz um estudo
Este episódio é um exemplo perfeito de alguns dos problemas que estão sendo descobertos no campo da inteligência artificial. Por exemplo, que os algoritmos herdam vieses e preconceitos presentes nas bases de dados (alimentadas por seres humanos) e nas mãos dos programadores que os desenvolvem. Os inovadores, os inventores, tendem a ser homens brancos de boa família, e isso de alguma forma acaba aparecendo no fruto do seu trabalho.
Também mostra que a tecnologia que permite que as máquinas façam reconhecimento visual é muito mais difícil de aperfeiçoar do que acreditamos. É possível que em breve tenhamos carros automáticos circulando pelas ruas, tomando decisões difíceis como quem devem atropelar. Em caso de dúvida, o que vai acontecer se é difícil para as máquinas distinguirem um animal de uma pessoa? Vai escolher salvar a pessoa com pele mais clara e atropelar a de pele mais escura porque pode ser um macaco? “É muito difícil modelar tudo que seu sistema verá quando estiver ao vivo”, reconhece Vicente Ordóñez Román, professor da Universidade da Virgínia, na Wired.
Este incidente ilustra um problema maior: as máquinas acabam sendo uma caixa-preta, opaca e cheia de segredos, mesmo para seus próprios desenvolvedores
Além disso, este incidente ilustra um problema maior, que já foi alertado por especialistas em inteligência artificial: as máquinas acabam sendo uma caixa-preta, opaca e cheia de segredos, até para seus próprios desenvolvedores. O programador sabe com quais elementos alimentou o algoritmo e sabe quais são os resultados, mas não conhece em detalhes os processos que ocorrem dentro do cérebro de silício. Quando algo dá errado, como neste caso, não sabem exatamente o motivo nem podem resolver diretamente o problema, porque não sabem onde está. “Podemos construir esses modelos, mas não sabemos como funcionam”, reconhecia um especialista em diagnóstico de doenças usando inteligência artificial.
“A tomada de decisões automatizada pode significar riscos significativos para os direitos e liberdades das pessoas que necessitam de garantias apropriadas”, advertiu um relatório da AI Now, um instituto dedicado à investigação sobre os problemas decorrentes do uso da inteligência artificial. Esse relatório criticava a opacidade com a qual essas caixas-pretas são operadas. Em alguns casos, opacas para seus criadores e, no geral opacas para a sociedade que é afetada por suas decisões: finanças, saúde, seguros, mercado de trabalho, decisões judiciais... Todos são afetados por decisões algorítmicas.
Um estudo recente sobre a percepção social dos robôs mostrava uma conclusão interessante neste contexto: “Aqueles que estão em grupos historicamente marginalizados – mulheres, não brancos e menos educados – são os mais temerosos da tecnologia”. Certamente não é por acaso.

Comentários

Postagens mais visitadas deste blog

Doutrina Monroe - Por: Marcos Benedito - 03/01/2026

Onde a Doutrina Monroe foi usada como instrumento de dominação A chamada Doutrina Monroe não surgiu por acaso, nem por boa vontade. Ela foi criada em 1823, quando os Estados Unidos ainda estavam se afirmando como nação, mas já pensavam como império em formação. O contexto era claro: países da América Latina estavam se libertando das coroas europeias, especialmente da Espanha e de Portugal, e as grandes potências do Velho Mundo observavam com interesse a possibilidade de retomar influência sobre essas regiões. Foi nesse cenário que os EUA se apresentaram como “protetores” do continente. O discurso oficial dizia que a Europa não deveria mais interferir nas Américas. Soava bonito, até necessário. Mas o objetivo real era outro: afastar os europeus para assumir o controle do território, da política e da economia do continente. Nascia ali a famosa frase: “A América para os americanos.” Só que nunca ficou claro quem eram esses “americanos”. Na prática, a doutrina estabeleceu que nenhum país d...

OBSERVATÓRIO - Imigrantes africanos protestam por direitos humanos em Israel - Do G1, com agências inernacionais

Os imigrantes pedem que o governo conceda a eles o status de refugiado. Enquanto isso, são abrigados em centro penitenciários.                           Munidos de velas e cartazes, imigrantes africanos em Israel foram às ruas da capital Tel Aviv, neste sábado (28), para protestar contra ações do governo que os têm confinado em centros penitenciários. (Foto: Oren Ziv/France Presse)   Imigrantes africanos em Israel foram às ruas da capital Tel Aviv, neste sábado (28), para protestar contra ações do governo que os têm confinado em centros penitenciários e para terem respeitados os direitos humanos. Em um protesto pacíficio, milhares seguram velas e ostentaram cartazes pedidno liberdade. Cerca de 60 mil imigrantes africanos vivem em Israel sem o status de refugiado. Eles são abrigados em centros de detenção, devido a uma lei que passou no parlamento...

Madame Satã, o transformista visto como herói da contracultura e vilão pelo governo Bolsonaro - Daniel Salomão Roque De São Paulo para a BBC News Brasil 26 junho 2021

  bibliOTECA NACIONAL Legenda da foto, Manchete sobre a participação de João Francisco numa fuga penitenciária em 1955. O transformista nutria grande admiração por Carmen Miranda e procurava imitá-la sempre que possível Ao abaixar a cabeça, João Francisco dos Santos, então com 28 anos, viu duas poças se avolumarem no chão de seu quarto — de um lado, as gotas de sangue pingando através de um rasgo em sua sobrancelha direita; do outro, as lágrimas que lhe escorriam pelos cantos dos olhos. Não demorou muito para que ambos os fluidos se misturassem numa poça maior. "A minha pessoa estava feliz demais naquela noite. Eu devia ter desconfiado", recordaria quatro décadas depois, em depoimento ao escritor Sylvan Paezzo (1938-2000). "Já tinha apanhado tanto da danada da vida, que pensei ter chegado a minha boa hora. Aquela demagogia de que não há mal que sempre dure e que depois da tempestade vem a bonança." Corria o ano de 1928, e João Francisco acreditava ter realizado o so...