Adotar a inteligência artificial não é mais uma questão de "se", mas de "quando" (Freepik)
Plataforma de conteúdo
Publicado em 17 de fevereiro de 2025 às 15h00.
Como foi visto semanas atrás, a chegada da nova versão da DeepSeek, a Inteligência Artificial (IA) de código aberto chinesa, dominou os noticiários mundo afora. O suposto uso de menos processamento sob a hipótese de entregar a mesma qualidade de conteúdo (ou até melhor, segundo quem testou) que os seus principais concorrentes (Gemini, ChatGPT, etc.), gerou um impacto expressivo no mercado como um todo, especialmente no financeiro ao derrubar as ações da principal fornecedora de chips do mundo.
No entanto, passada a euforia inicial com a DeepSeek, surgiu a notícia da IA da Alibaba, que prometeu mais avanços e eficiência no uso de recursos computacionais. Com essa sequência de lançamentos, vale a pena refletir sobre como devemos lidar com a constante chegada de ferramentas similares com discursos e objetivos milagrosos, porém com os riscos bastante incertos.
Em tempos em que a geopolítica está cada vez mais presente no nosso dia a dia, é fato que vivemos uma nova “Guerra Fria” dentro do mercado de IA. A tendência é que veremos, com cada vez mais frequência, organizações lançando versões mais aprimoradas, com maior capacidade de processamento, a um custo reduzido, com um modelo mais sustentável. Diante desse contexto, é o nosso papel - seja como cidadão ou empresa – entender a tecnologia por trás dela e compreender os riscos para não cair em armadilhas.
Não por acaso, segundo o The Global Risks Report 2025, do Fórum Econômico Mundial, o chamado “Misunderstanding” (que pode ser traduzido como Desinformação) das tecnologias foi apontado com um dos riscos mais ameaçadores para este ano. O fato é que teremos a IA cada vez mais embarcada nos produtos e serviços oferecidos para nós, sempre com a promessa de nos ajudar, entregar mais eficiência e produtividade. Mas não podemos nos esquecer nunca que estamos falando de organizações que trabalham para benefício próprio ou de terceiros (nações, por exemplo).
O uso inadequado (ou a Desinformação) sobre novas tecnologias também pode criar mal-entendidos em massa. Isso pode incluir uma interpretação errada do que tais ferramentas podem ou não fazer, gerando ansiedade ou confiança excessiva nelas. Empresas que usam IA sem compreender totalmente seus resultados podem até ser responsabilizadas por erros, como um chatbot jurídico que dá um conselho incorreto e expõe a empresa a processos judiciais.
O risco de ser um “early adopter” em situações como essa é que nunca sabemos, de fato, o tipo de dados que estamos compartilhando com essas empresas. É sempre importante lembrar que não existe “almoço grátis” e as informações disponibilizadas para esses prestadores de serviços podem ser comprometidas de alguma forma, colocando a sua privacidade em risco. Claro que isso pode acontecer com qualquer empresa, mas quantas vezes não nos atentamos aos termos de adesão apenas para usufruirmos de um benefício instantâneo?
Precisamos ter em mente que daqui em diante esses lançamentos serão frequentes e tendem a ser sempre acompanhados de muito barulho (propaganda, seja ela positiva ou negativa). Por isso é fundamental que as discussões sobre regulamentações da IA evoluam na mesma velocidade. Somente com a participação de diferentes esferas da sociedade que encontraremos um caminho que nos proteja de interesses escusos mascarados com marketing midiático. Caso contrário, seremos levados pelas demais ondas, sem entender, de fato, o quanto estamos comprometendo nossos dados (e das organizações onde trabalhamos) a médio e longo prazo. Afinal, tudo a leva a crer que a onda da DeepSeek já passou, mas como vamos nos preparar para a próxima?
Leonel Conti é diretor de Tecnologia da Redbelt Security.
Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube