Revista Exame

Em um mundo de metaverso, transparência é a palavra de ordem

Enquanto caminhamos rumo ao metaverso, temos de lidar com pragas antigas e nada divinas: problemas de privacidade e transparência

Escritório do Google na Alemanha: demissões na área de inteligência artificial acendeu discussão (Bernd von Jutrczenka/Getty Images)

Escritório do Google na Alemanha: demissões na área de inteligência artificial acendeu discussão (Bernd von Jutrczenka/Getty Images)

DR

Da Redação

Publicado em 19 de novembro de 2021 às 06h00.

Enquanto caminhamos rumo à terra prometida da tecnologia, o metaverso, temos de lidar com pragas antigas e nada divinas: problemas de privacidade e transparência. Cópia virtual feita à imagem e semelhança do mundo real, onde usuá­rios vivenciam encontros e experiências por meio de seus avatares 3D, o metaverso pode ser solo fértil para discussões de segurança, uma vez que os algoritmos (e as empresas que os controlam) passariam a ter acesso a dados sensíveis e ultrapessoais, como mapeamento do ambiente, movimento corporal e mais.

“Essa ideia darwinista de que toda evolução é um avanço ou uma sobreposição de desafios superados pode dar a falsa impressão de que estamos chegando à próxima fase da internet por termos ‘vencido’ as demais, e não é verdade”, disse à EXAME CEO Şerife (Sherry) Wong, pesquisadora do Berggruen Institute e diretora do Digital Peace Now, uma iniciativa que visa manter a internet um lugar diverso, respeitoso e criativo.

Conquiste um dos maiores salários no Brasil e alavanque sua carreira com um dos MBAs Executivos da EXAME Academy.

Atuando também como consultora da O’Neil Risk Consulting & Algorithmic Auditing (Orcaa) — agência criada por Cathy O’Neil, cientista de dados americana autora do livro Weapons of Math Destruction —, Wong insiste em dizer que a discussão da ética nas big techs acontece há anos, mas que o grande chacoa­lhão aconteceu no ano passado, quando o Google demitiu Timnit Gebru e, na sequência, Margaret ­Mit­chell, ambas líderes do time de ética na inteligência artificial.

“O afastamento dessas profissionais foi um choque porque evidenciou o abismo entre fala e prática”, diz Wong. “Uma companhia das proporções do Google pode, realmente, ser ética? Você é ouvido lá dentro, ou seria uma ética de aparências? A companhia está usando sua imagem e suas palavras para continuar fazendo as coisas do mesmo jeito de sempre, ou está promovendo mudanças significativas? Essas são algumas das muitas perguntas que herdamos desse acontecimento, e que podem ser aplicadas a qualquer uma das grandes empresas de tecnologia.”

Embora a resposta seja diversa, a verdade é que o Vale do Silício tenta encontrar um equilíbrio sustentável. O Facebook, por exemplo, lançou há poucos meses o Centro de Transparência, onde esporadicamente publica relatórios sobre suas práticas. Na página é possível ter acesso, por exemplo, ao volume de dados solicitados por governos. Segundo o gigante criado por Mark Zuckerberg, a companhia recebeu mais de 190.000 solicitações governamentais desde 2013, o que impactou a conta de mais de 320.000 usuários.

A Apple, que também publica relatórios de transparência regularmente, tem sido um dos destaques no Vale do Silício quando a questão é privacidade e ética. A empresa comandada por Tim Cook anunciou, no começo do ano, que seu novo sistema operacional daria controle ao usuário para escolher quais aplicativos e serviços poderiam monitorar seus passos online e offline. A medida incomodou outros gigantes, como o próprio Facebook, que fazem uso da movimentação virtual do usuário para vender anúncios direcionados.

Prédio do Twitter, em São Francisco: convocação para depor no Congresso americano sobre privacidade dos usuários (David Paul Morris/Bloomberg/Getty Images)

Mais recente companhia a ganhar as manchetes nesse cenário, o LinkedIn revelou que, em 2018, seu algoritmo estava enviesado. A plataforma de networking passou a mostrar certas oportunidades profissionais somente para homens e outras apenas para mulheres. A solução foi criar um novo algoritmo para corrigir o primeiro.

Em todos os exemplos acima, a iniciativa de remediação partiu da própria empresa, numa espécie de autorregulamentação. Sim, é verdade que big techs como o Twitter foram chamadas, em diferentes momentos, para depor diante do Congresso americano, e que muitas delas foram multadas mundo afora por suas práticas falhas de privacidade e segurança.

As penalidades, porém, não surtem o efeito esperado, e Wong aposta na interferência governamental. “Se é uma lei e você é obrigado a segui-la, então todo mundo vai arregaçar as mangas e colocar a mão da massa. O foco deixa de ser o mercado ou seu concorrente, entende? Na autorregulamentação você passa a especular como aquilo pode enfraquecer seu produto, serviço ou negócio como um todo”, afirma Wong. Para a consultora, esse caminho de deixar a cargo das companhias o cumprimento das práticas éticas nos torna reféns de seus padrões morais, sem saber, de fato, o que acontece nos bastidores.

O questionamento da ética e da transparência no mundo digital não é um fator meramente filosófico. Essa pauta tem o potencial de mudar democracias — e aqui não estamos falando apenas sobre o processo eleitoral, quando escândalos envolvendo disseminação de fake news em diferentes plataformas culminaram na vitória de um partido ou projeto.

Em um estudo liderado pelo pesquisador alemão Nils Köbis, um dos fundadores da Rede Interdisciplinar de Pesquisa da Corrupção, ficou provado que os algoritmos, quando não são auditados, podem turbinar nossas corrupções. À EXAME CEO, Köbis afirmou que há basicamente quatro papéis importantes para a inteligência artificial desempenhar no comportamento ético humano. O primeiro é de modelo, o que significa que um usuário pode passar a reproduzir o comportamento da máquina, mesmo sem entendê-lo. O segundo papel é de conselheiro, uma vez que a IA está cada vez mais pessoal. Então podemos ter a inteligência artificial como uma parceira ativa, o que implica que podemos nos engajar em comportamentos éticos ou antiéticos, junto com os algoritmos.

Finalmente, o último papel do algoritmo é o de delegar — e é o que mais preocupa o pesquisador. “Frequentemente terceirizamos ao algoritmo algumas de nossas tarefas. Por exemplo, se optarmos por deixar a cargo do algoritmo a tarefa de definir o preço de determinado produto, poderemos achar bom ou fazer vista grossa para qualquer comportamento antiético do mecanismo, contanto que trapaceie os valores para que tenhamos mais lucros”, diz Köbis. “E esse é um dos maiores problemas, porque a IA se tornaria uma ótima parceira de crime, porque ela jamais rejeitaria um comando antiético, e tampouco lhe entregaria ou chantagearia por isso”, completa.

Sede do Facebook na Califórnia: Centro de Transparência publica relatórios sobre suas práticas (Michael Short/Bloomberg/Getty Images)

É preciso lembrar aqui que o algoritmo, sozinho, é incapaz de distinguir o certo do errado, o bom do mau. Todos eles são programados para desempenhar uma tarefa específica, seguindo os parâmetros de seus criadores. Ou seja, o algoritmo é apenas o espelho de quem o produz e de quem o utiliza, uma vez que ele se sofistica à medida que aprende com os usuários.

“Por isso não canso de dizer que os algoritmos precisam ser mais bem monitorados, para que tenhamos certeza de que eles foram programados para fazer, de fato, o que propõem”, diz o pesquisador. “Se um algoritmo tem como missão maximizar o lucro e analisar as ligações de um call center, ele pode entender que enganar os clientes pode ser a melhor estratégia para isso — e nada o impediria de recomendar uma estratégia antiética. Assim, acho que o maior problema é o fato de que, na maioria dos casos, o comportamento antiético não é a intenção. Ou seja, as pessoas não estão programando os algoritmos para serem corruptos, mas isso surge como uma espécie de efeito colateral. Por exemplo, já sabemos que o Facebook pode ser bastante prejudicial a seus usuários, propagando desinformação e etc., mas a rede social nunca foi configurada para isso. Então, esses efeitos colaterais das novas tecnologias podem levar a consequências danosas até quem não está diretamente envolvido no assunto.”

Para todos os especialistas, a perfeição ética e moral das máquinas é uma utopia, mas a transparência para lidar com esses desafios é um primeiro passo: se soubermos o que está acontecendo e o que está sendo feito nesse cenário, poderemos não apenas acompanhar mas até colaborar com o processo. “Ao sabermos do problema com a seleção de candidatos para uma vaga de trabalho, por exemplo, poderemos manualmente nos certificar de que os escolhidos reflitam a diversidade esperada”, afirma Wong.

Ainda segundo a consultora, a auditoria de sistemas por empresas ou indivíduos terceirizados deveria ser compulsória. “Sei que há quem pense que essa ideia é radical, mas toda empresa tem um conjunto de cinco a 15 regras que dizem que a inteligência artificial precisa ser justa, transparente e responsável. Também dizem que a IA tem de ser centrada no ser humano e respeitar os direitos humanos. O problema é que eles falam isso, mas não existe nada que nos garanta que haja algum tipo de ação por trás desse discurso todo. A gente acaba tendo esse monte de ideia espalhada por aí, mas elas não significam nada, porque os termos são abrangentes e abstratos. É desafiador pensar em definições mais específicas, porque tudo depende de contexto. Você pode usar um soft­ware em uma comunidade para uma coisa, e em outro lugar esse mesmo software pode ser usado para outros fins. Todo mundo parece surpreso com isso, mas eu acho que a saída é termos padrões de checagem: como podemos ter certeza de que uma ideia ou tecnologia é boa ou benéfica?”

Responder a essa pergunta torna-se urgente por diferentes motivos, sobretudo porque caminhamos a passos largos para o tal metaverso, que ninguém sabe ainda a proporção que vai tomar, e, paralelamente, avançamos também na computação quântica, ciência que estuda o desenvolvimento de algoritmos com base em informações processadas por sistemas quânticos, como átomos. “Tudo o que estamos fazendo sobre transparência e remoção de preconceitos da inteligência artificial e da computação clássica devemos continuar a fazer com a computação quântica. Não acredito que surjam novos problemas nesse sentido”, disse à reportagem da EXAME CEO Robert ­Sutor, chief quantum exponent da IBM.

Criadas por humanos falhos e corruptíveis, as máquinas não podem ser simplesmente o reflexo do que somos: elas têm de ser eticamente melhores. A transparência, nesse caso, tem o mesmo efeito Big Brother — ao sabermos que estamos sendo vistos, nos comportamos de maneira socialmente aceita.

Acompanhe tudo sobre:exame-ceoFacebookInteligência artificialMetaversovale-do-silicio

Mais de Revista Exame

"Somos uma marca alemã, isso define quem somos", diz CEO da Rimowa

Forte captação em crédito reduz potencial de retorno e desafia gestoras em busca por ativos

Elas já estão entre nós

Desafios e oportunidades