d
O CEO da Nvidia não está satisfeito com o tom do debate público sobre inteligência artificial. Jensen Huang, que lidera a empresa com a maior capitalização bolsista do planeta, avaliada em cerca de 4,5 biliões de dólares, quer que as pessoas deixem de alimentar aquilo a que chama a narrativa do apocalipse.
Durante uma aparição recente no podcast No Priors, apresentado por Elad Gil e Sarah Guo, Huang foi direto ao assunto quando questionado sobre o conceito de IA Divina e o estigma que rodeia o crescimento da tecnologia. A conversa, que durou quase 80 minutos, tocou em vários tópicos sensíveis, mas foi a posição sobre os críticos da IA que gerou mais atenção.
Huang não acredita que os investigadores tenham qualquer capacidade razoável de criar uma IA divina. A capacidade de compreender perfeitamente linguagem humana, genómica, molecular, de proteínas, aminoácidos e física simplesmente não existe, segundo o executivo. Esta IA omnipotente é, na sua perspectiva, uma fantasia distante.
A questão para Huang é que enquanto essa superinteligência não chega, o mundo precisa de avançar agora, na próxima semana, no próximo ano, na próxima década. Existem indústrias que necessitam de IA, que ele descreve simplesmente como a próxima revolução informática. A ideia de uma empresa monolítica e gigantesca, ou de um país, a controlar tudo é, nas suas palavras, super inútil e demasiado extrema.
Foi aqui que Huang decidiu atacar os influenciadores e figuras públicas que pintam cenários sombrios sobre a IA. Para o CEO da Nvidia, esta narrativa catastrofista tem sido extremamente prejudicial. “Penso que fizemos muitos danos recentemente com pessoas muito respeitadas que pintaram uma narrativa catastrofista, narrativa do fim do mundo, narrativa de ficção científica. E aprecio que a maioria de nós tenha crescido a apreciar ficção científica, mas não é útil“.
Huang continuou a sua crítica dizendo que esta abordagem não é útil para as pessoas, não é útil para a indústria, não é útil para a sociedade e não é útil para os governos. O executivo questionou depois qual seria o propósito deste tipo de narrativa e quais as intenções de quem a espalha.
Não é a primeira vez que Huang entra em confronto público sobre este tema. Quando Dario Amodei, CEO da Anthropic, alertou que a IA poderia eliminar metade dos empregos iniciais de colarinho branco nos próximos cinco anos, Huang contra-argumentou que Amodei estava apenas a criar alarmismo para fazer parecer que a Anthropic era a única empresa responsável o suficiente para desenvolver IA.
A defesa de Huang ganha uma camada adicional de complexidade quando se considera que a Nvidia é a fornecedora principal de hardware para toda a indústria de IA. Os chips da empresa são essenciais para treinar modelos de linguagem e alimentar data centers. A procura frenética por estas unidades de processamento gráfico catapultou a empresa para uma avaliação que ultrapassou os 5 biliões de dólares em outubro de 2025, embora tenha recuado ligeiramente desde então.
O debate sobre IA continua polarizado
A posição de Huang surge num momento em que o debate sobre IA continua intensamente polarizado. Por um lado, há os que veem a tecnologia como transformadora e essencial para o progresso. Por outro, crescem as vozes que alertam para riscos reais e concretos.
A preocupação com o desemprego é talvez a mais imediata. O próprio Dario Amodei tem sido particularmente vocal sobre este tema, alertando que a IA poderia causar taxas de desemprego entre 10% e 20% nos próximos anos. Estas projeções, se corretas, representariam os níveis mais altos desde a Grande Depressão.
Para além da questão laboral, há preocupações crescentes sobre desinformação, vigilância e abuso de sistemas de IA. O problema do conteúdo gerado artificialmente, ou slop como é conhecido na indústria, tornou-se tão prevalente que mais de 20% do feed do YouTube pode agora ser definido como tal.
A própria indústria dos videojogos tem enfrentado controvérsias significativas. Recentemente, Clair Obscur: Expedition 33 viu o seu prémio de Jogo do Ano nos Indie Game Awards ser revogado após se confirmar que o jogo utilizou IA generativa durante o desenvolvimento. O caso gerou debate intenso sobre os limites aceitáveis do uso de IA na criação artística.
Indie Game Awards acabam de tirar dois prémios a Clair Obscur: eis o que aconteceu
Huang não está sozinho nas suas opiniões. Mustafa Suleyman, CEO do grupo de IA da Microsoft, chamou a crítica pública à IA de alucinante em novembro. Mas a resposta de muitos é que estas preocupações não vão desaparecer simplesmente porque magoam os sentimentos de alguns executivos.
Questões sobre intenções
Huang também questionou as motivações de alguns líderes tecnológicos que pedem mais regulação governamental da IA. “As suas intenções estão claramente profundamente conflituosas, e as suas intenções claramente não estão completamente no melhor interesse da sociedade. Quero dizer, são obviamente CEOs, são obviamente empresas, e obviamente estão a defender-se a si próprios”.
Esta posição é particularmente interessante vinda do líder de uma empresa que beneficia enormemente do boom da IA. A Nvidia vende as ferramentas essenciais que alimentam toda a revolução da inteligência artificial. Quanto mais empresas investirem em IA, mais chips da Nvidia venderá.
A contradição não passou despercebida. Como pode o líder da empresa que mais lucra com a IA pedir às pessoas para serem menos críticas? A resposta de Huang parece ser que o pessimismo excessivo está a assustar investidores e a impedir progressos que poderiam tornar a IA mais segura e funcional.
Mas esta argumentação tem as suas fragilidades. Huang não apresenta soluções concretas para o risco real de deslocamento de empregos. Não tem respostas para os problemas contínuos de desinformação ou abuso. A sua mensagem resume-se essencialmente a pedir que se acelere o investimento e desenvolvimento com a crença de que, no final, surgirá uma superinteligência que resolverá todos estes problemas.
A batalha das narrativas, como Huang lhe chamou, continuará certamente a intensificar-se em 2026. De um lado, executivos de empresas de IA que prometem um futuro transformador. Do outro, trabalhadores, investigadores e cidadãos preocupados que querem garantias de que esta tecnologia será desenvolvida de forma responsável.









