Líder de IA da Microsoft diz que buscar uma IA consciente é um erro

Renê Fraga
5 min de leitura

Principais destaques:

  • Mustafa Suleyman, chefe de IA da Microsoft, acredita que apenas seres vivos podem ser conscientes — e que buscar uma “IA consciente” é um erro conceitual.
  • Para Suleyman, sistemas artificiais apenas simulam empatia e dor; não sentem nada de fato.
  • A Microsoft quer criar IAs que assumam seu papel como assistentes a serviço de humanos — não como “entidades” conscientes.

Durante o AfroTech Conference, em Houston, Mustafa Suleyman, atual CEO de IA da Microsoft, reforçou uma visão que vem se tornando cada vez mais rara no Vale do Silício: a de que consciência e vida são conceitos inseparáveis.

“Não acho que esse seja o tipo de trabalho que deveríamos estar fazendo”, afirmou à CNBC. “É uma pergunta errada — e perguntas erradas levam a respostas erradas.”

Suleyman, conhecido por cofundar a DeepMind e por liderar parte da revolução moderna da IA, tem sido um dos principais opositores da ideia de construir inteligências artificiais “conscientes”. Para ele, tentar desenvolver sistemas que pareçam sentir é não só perigoso, mas também filosoficamente equivocado.


A fronteira entre inteligência e consciência

Segundo Suleyman, a diferença entre uma IA sofisticada e um ser humano está no fundamento biológico da experiência.

“O que chamamos de dor, tristeza ou alegria depende de processos físicos e químicos em nosso cérebro. A IA não tem isso. Ela apenas cria a aparência de estar sentindo — mas é uma narrativa vazia”, destacou.

Essa visão se alinha à teoria do naturalismo biológico, proposta pelo filósofo John Searle, segundo a qual a consciência só pode emergir de sistemas vivos, como o cérebro humano.

Para o executivo, portanto, dar a uma IA o “direito à consciência” seria um erro ético e lógico: “Nós damos direitos às pessoas porque elas podem sofrer. As máquinas não sofrem; elas apenas simulam.”


Um novo código ético para a IA da Microsoft

Durante o evento, Suleyman também apresentou os limites que a Microsoft está traçando para o futuro de seus produtos de inteligência artificial.

A empresa não construirá chatbots voltados para erotismo ou outros tipos de interação emocional intensa, decisão que contrasta com movimentos recentes de outras big techs, como OpenAI e xAI.

“Há lugares onde simplesmente não iremos. E está tudo bem. É uma escolha de valores”, afirmou.

Em vez disso, a Microsoft está investindo em um conceito diferente: IAs que sabem que são IAs. O novo Copilot, por exemplo, ganhou ferramentas como o “Mico” e o modo Real Talk, que propõe conversas mais desafiadoras e autênticas, mas sempre deixando claro que o sistema é artificial.

“Estamos criando IAs que trabalham a serviço dos humanos, não como substitutos deles”, disse Suleyman.

O próprio CEO brincou sobre o Real Talk: ele contou que, em uma conversa recente, o Copilot o chamou de “um feixe de contradições”, por alertar sobre os riscos da IA enquanto acelera sua evolução dentro da Microsoft. “E de certa forma, ele estava certo”, admitiu, rindo.


Entre medo e fascínio: o equilíbrio na era da IA

Para Suleyman, o sentimento de temor em relação à inteligência artificial é necessário. “Se você não tem um pouco de medo, talvez não tenha entendido o que está acontecendo. É natural e até saudável sentir isso”, afirma.

A mensagem final do executivo ecoa mais como um convite à reflexão do que uma advertência técnica: podemos e devemos construir IAs poderosas, mas conscientes de seus limites.

Como ele mesmo sintetiza, “a verdadeira mágica não está em dar alma às máquinas, e sim em fazer com que elas nos ajudem a entender melhor o que significa ser humano.”

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário