Tecnologia

Robô preconceituoso soou alerta interno na Microsoft

Com experimento, empresa tomou consciência do nível de importância da ética para a inteligência artificial

 (Twitter/Microsoft/Reprodução)

(Twitter/Microsoft/Reprodução)

Lucas Agrela

Lucas Agrela

Publicado em 9 de março de 2018 às 16h56.

Última atualização em 11 de março de 2018 às 15h20.

Florianópolis – A Microsoft fez um experimento em 2016: colocou uma inteligência artificial no Twitter para que ela aprendesse com os internautas. Em apenas um dia, ela se tornou preconceituosa, falando mal sobre judeus e mexicanos, e isso soou um alerta interno na empresa sobre a importância da ética para essa nova fronteira da tecnologia.

“Isso foi um assombro para nós. Do ponto de vista de tecnologia, o experimento funcionou. Do ponto de vista social, foi uma experiência terrível”, declarou Paula Bellizia, general manager da Microsoft Brasil, durante o evento Data Driven Business, realizado em Florianópolis.

Bellizia diz que o algoritmo aprendeu do meio e que isso é “um pouco do reflexo da sociedade na qual vivemos hoje”. “A questão da ética, do propósito e da visão do impacto do que fazer vai ser mais importante do que nunca. O poder também estará nas mãos das grandes organizações de tecnologia”, afirmou a executiva.

Atualmente, 8 mil cientistas trabalham na área de inteligência artificial da Microsoft.

A tecnologia que a empresa cria não é usada somente para análise interna de dados, em uma plataforma de Big Data, ela já poderá ser aproveitada por desenvolvedores de aplicações para Windows 10 graças à plataforma Windows ML, que será oferecida na próxima atualização do sistema operacional.

Acompanhe tudo sobre:Inteligência artificialMicrosoftPatrocinadoPreconceitos

Mais de Tecnologia

Como a Meta quer diminuir tensões políticas com um cabo submarino

PlayStation, console da Sony que mudou a história dos jogos eletrônicos, completa 30 anos

Quantos filhos têm as 10 mulheres mais ricas do mundo?

Quantos filhos têm os homens mais ricos do mundo?