Pular para o conteúdo principal

Google conserta seu algoritmo “racista” apagando os gorilas - JAVIER SALAS Twitter 16 JAN 2018 - POR: EL PAÍS

Google Photos confundia pessoas negras com macacos. Este patch mostra a opacidade dos algoritmos

Resultados do Google Photos à busca por “gorilas” do usuário que fez a denúncia @JACKYALCINE

Em junho de 2015, um usuário do Google Photos descobriu que o programa etiquetava seus amigos negros como gorilas. A inteligência artificial do Google não era capaz de distinguir a pele de um ser humano da dos macacos, como gorilas e chimpanzés. Esse viés racista da máquina forçou o Google a pedir desculpas e prometeu encontrar uma solução para o erro. Dois anos depois, a solução é clara: para que o programa não confunda seres humanos com gorilas, tirou os gorilas do buscador. E os chimpanzés. E os macacos.
A revista Wired fez o teste, alimentando a máquina com milhares de fotos, incluindo de grandes símios e outras espécies de macacos. O programa – criado para classificar sozinho as fotos dos usuários usando inteligência artificial – responde perfeitamente quando você pede que encontre orangotangos, gibões, babuínos ou saguis, encontrando-os sem problemas. Mas não responde quando você pede “macacos”, “gorilas” e “chimpanzés”, mesmo que tenha algumas fotos guardadas. O patch do Google é fazer desaparecer estes animais do léxico deste aplicativo para a gestão de fotos pessoais (não no buscador de imagens). O programa também sabe buscar “homem negro” ou “mulher negra”.
A forma de resolver o problema é apagar o problema: autocensurar essas etiquetas. “A tecnologia de etiquetar imagens ainda é jovem e, infelizmente, não é perfeita”, respondeu um porta-voz do Google, admitindo o patch. O Flickr teve um problema semelhante, ao etiquetar negros como macacos. O algoritmo do Facebook permite diferenciar os usuários por raça. Esses subprodutos inesperados estão em toda parte.
“Aqueles que estão em grupos historicamente marginalizados – mulheres, não brancos e menos educados – são os mais temerosos da tecnologia”, diz um estudo
Este episódio é um exemplo perfeito de alguns dos problemas que estão sendo descobertos no campo da inteligência artificial. Por exemplo, que os algoritmos herdam vieses e preconceitos presentes nas bases de dados (alimentadas por seres humanos) e nas mãos dos programadores que os desenvolvem. Os inovadores, os inventores, tendem a ser homens brancos de boa família, e isso de alguma forma acaba aparecendo no fruto do seu trabalho.
Também mostra que a tecnologia que permite que as máquinas façam reconhecimento visual é muito mais difícil de aperfeiçoar do que acreditamos. É possível que em breve tenhamos carros automáticos circulando pelas ruas, tomando decisões difíceis como quem devem atropelar. Em caso de dúvida, o que vai acontecer se é difícil para as máquinas distinguirem um animal de uma pessoa? Vai escolher salvar a pessoa com pele mais clara e atropelar a de pele mais escura porque pode ser um macaco? “É muito difícil modelar tudo que seu sistema verá quando estiver ao vivo”, reconhece Vicente Ordóñez Román, professor da Universidade da Virgínia, na Wired.
Este incidente ilustra um problema maior: as máquinas acabam sendo uma caixa-preta, opaca e cheia de segredos, mesmo para seus próprios desenvolvedores
Além disso, este incidente ilustra um problema maior, que já foi alertado por especialistas em inteligência artificial: as máquinas acabam sendo uma caixa-preta, opaca e cheia de segredos, até para seus próprios desenvolvedores. O programador sabe com quais elementos alimentou o algoritmo e sabe quais são os resultados, mas não conhece em detalhes os processos que ocorrem dentro do cérebro de silício. Quando algo dá errado, como neste caso, não sabem exatamente o motivo nem podem resolver diretamente o problema, porque não sabem onde está. “Podemos construir esses modelos, mas não sabemos como funcionam”, reconhecia um especialista em diagnóstico de doenças usando inteligência artificial.
“A tomada de decisões automatizada pode significar riscos significativos para os direitos e liberdades das pessoas que necessitam de garantias apropriadas”, advertiu um relatório da AI Now, um instituto dedicado à investigação sobre os problemas decorrentes do uso da inteligência artificial. Esse relatório criticava a opacidade com a qual essas caixas-pretas são operadas. Em alguns casos, opacas para seus criadores e, no geral opacas para a sociedade que é afetada por suas decisões: finanças, saúde, seguros, mercado de trabalho, decisões judiciais... Todos são afetados por decisões algorítmicas.
Um estudo recente sobre a percepção social dos robôs mostrava uma conclusão interessante neste contexto: “Aqueles que estão em grupos historicamente marginalizados – mulheres, não brancos e menos educados – são os mais temerosos da tecnologia”. Certamente não é por acaso.

Comentários

Postagens mais visitadas deste blog

Carta das Centrais Sindicais ao Presidente Bolsonaro

“EXMO. SR. JAIR MESSIAS BOLSONARO MD. PRESIDENTE DA REPÚBLICA FEDERATIVA DO BRASIL BRASÍLIA – DF Senhor Presidente, As Centrais Sindicais que firmam a presente vem, respeitosamente, apresentar-se à Vossa Excelência com a disposição de construir um diálogo em benefício dos trabalhadores e do povo brasileiro. Neste diálogo representamos os trabalhadores, penalizados pelo desemprego que atinge cerca de 12,4 milhões de pessoas, 11,7% da população economicamente ativa (IBGE/PNAD, novembro de 2018) e pelo aumento da informalidade e consequente precarização do trabalho. Temos assistido ao desmonte de direitos historicamente conquistados, sendo as maiores expressões desse desmonte a reforma trabalhista de 2017, os intentos de reduzir direitos à aposentadoria decente e outros benefícios previdenciários, o congelamento da política de valorização do salário mínimo e os ataques à organização sindical, as maiores expressões deste desmonte. Preocupa-nos sobremaneira o destino da pol

19 Exemplos de publicidade social que nos fazem pensar em problemas urgentes - POR: INCRÍVEL.CLUB

Criadores de propagandas de cunho social têm um grande desafio: as pessoas precisam não apenas notar a mensagem, mas também lembrar dela. Você deve admitir que, mesmo passados vários anos, não consegue tirar da cabeça algumas peças publicitárias desse tipo, que fizeram com que passasse a enxergar determinadas situações sob uma outra ótica. Se antes as propagandas sociais abordavam tmas como a poluição do meio ambiente com plástico e o aquecimento global, hoje existem campanhas sobre os perigos do sedentarismo, os riscos que o tabagismo representa aos animais em decorrência do aumento de incêndios florestais e até sobre a importância das férias para a saúde humana. São, portanto, peças que abordam problemas atuais e familiares para muita gente. Neste post, o  Incrível.club  mostra a você o que de melhor foi criado recentemente no campo das propagandas de cunho social. Fumar não é prejudicial apenas à sua saúde, mas também aos animais que vivem em áreas que sofrem com incênd

Empresas impõem regras para jornalistas

REDE SOCIAIS Por Natalia Mazotte em 24/5/2011 Reproduzido do Jornalismo nas Américas http://knightcenter.utexas.edu/pt-br/ , 19/5/2011, título original: "Site de notícias brasileiro adota regras para o uso das redes sociais por jornalistas"; intertítulo do OI Seguindo a tendência de veículos internacionais , o site de notícias UOL divulgou aos seus jornalistas normas para o uso de redes sociais , de acordo com o blog Liberdade Digital. As recomendações se assemelham às já adotadas por empresas de notícias como Bloomberg , Washington Post e Reuters : os jornalistas devem evitar manifestações partidárias e políticas, antecipar reportagens ainda não publicadas ou divulgar bastidores da redação e emitir juízos que comprometam a independência ou prejudiquem a imagem do site. Segundo um repórter do UOL, os jornalistas estão tuitando menos desde que as diretrizes foram divulgadas . "As pessoas estão tuitando bem menos. Alguns cogitam deletar seus p