Anthropic é a primeira grande empresa de IA a incluir bem-estar animal como princípio do Claude

ESCRITO POR

Avatar de @gdayjulio

O que você precisa saber

  • A Anthropic publicou a versão original da Constituição do Claude, em maio de 2023, documento que define os valores e o raciocínio ético do assistente de IA
  • A Anthropic publicou uma atualização, em janeiro de 2026, na Constituição do Claude, a versão contava com uma lista de princípios isolados considerados insuficientemente específicos
  • Pela primeira vez no setor, uma grande empresa de IA inclui bem-estar dos animais e de todos os seres sencientes como valor formal
  • O documento é público e foi lançado sob licença Creative Commons, permitindo uso livre por qualquer pessoa
  • Pesquisadores de bem-estar animal celebraram o movimento e pediram que outros laboratórios de IA sigam o exemplo
  • Especialistas alertam que a mudança é um avanço, mas vieses de treinamento persistem nos modelos de linguagem

A Anthropic, criadora do assistente Claude, publicou uma atualização no documento que orienta o comportamento da sua IA. Pela primeira vez, uma grande empresa do setor lista formalmente o bem-estar dos animais como princípio ético da tecnologia.

IA que considera os seres sencientes

Uma linha discreta em um documento técnico de dezenas de páginas está chamando a atenção de pesquisadores e ativistas da causa animal. A Anthropic, empresa americana de inteligência artificial responsável pelo assistente Claude, publicou uma alteração no em sua Constituição do Claude — um guia de valores que orienta como a IA deve raciocinar, priorizar e tomar decisões. Entre os princípios listados, ao lado de educação, autonomia individual, liberdade política e proteção de grupos vulneráveis, consta a preocupação com os animais:

“Welfare of animals and of all sentient beings” — em tradução, bem-estar dos animais e de todos os seres sencientes.

É a primeira vez que uma das principais empresas de IA do mundo inclui explicitamente o bem-estar animal no núcleo ético de um modelo de uso geral, amplamente acessível ao público.

O que é a Constituição do Claude — e por que ela importa

O documento não é um manual de regras. A própria Anthropic explica que a abordagem anterior — baseada em listas de proibições — tinha limitações: a IA obedecia mecanicamente, sem compreender o raciocínio por trás das instruções.

A nova proposta é diferente. Em vez de dizer o que o Claude pode ou não fazer, o documento tenta transmitir por que certos valores existem — para que a IA possa aplicá-los com julgamento em situações que os criadores não previram.

“Queremos que Claude tenha uma compreensão tão completa de sua situação e das diversas considerações em jogo que pudesse construir qualquer regra que possamos criar por conta própria”, diz o texto.

O documento foi publicado sob licença Creative Commons, o que significa que pode ser lido, citado e usado por qualquer pessoa, sem restrições.

Ao formular uma resposta, o Claude deve agora pesar uma série de valores que podem estar em conflito. Que o bem-estar animal esteja nessa lista significa que perguntas sobre pecuária industrial, experimentação em laboratórios ou o veganismo passam a ter um contrapeso ético explícito — independente de como a pergunta foi feita ou de quem a fez.

A inclusão não passou despercebida. Lewis Bollard, pesquisador sênior de bem-estar animal na Open Philanthropy, foi um dos primeiros a comentar publicamente. “Espero que outros laboratórios de IA sigam o exemplo. Cuidar dos animais é parte fundamental da nossa humanidade”, escreveu.

Para especialistas da área, o simbolismo tem peso prático. A Constituição não é apenas um documento público — ela é usada no processo de treinamento da IA. Isso significa que o bem-estar animal influencia como o Claude aprende a raciocinar sobre questões morais, não apenas como ele responde a perguntas específicas.

O fato de o documento ser aberto também cria uma nova ferramenta de responsabilização: se os animais estão formalmente nos valores da IA e ela sistematicamente os ignora nas respostas, há agora um texto para citar.

O problema que a Constituição não resolve sozinha: os viéses de IA

A celebração, porém, vem acompanhada de ressalvas.

Grandes modelos de linguagem como o Claude aprendem com bilhões de textos produzidos por humanos — páginas de internet, livros, artigos, conversas. Esse material reflete o mundo como ele é, não como deveria ser. E nele, o sofrimento animal raramente aparece em perspectiva de primeira pessoa.

O resultado pode ser chamado de viés de antropocentrismo estrutural: a IA foi treinada em uma cultura que coloca humanos no centro das preocupações morais. Estender consideração ética a polvos, peixes ou insetos exige que o modelo ultrapasse padrões aprendidos ao longo de seu treinamento.

Outro problema recorrente é o viés de falsa equivalência. Quando há controvérsia pública — como entre defensores dos animais e a indústria agropecuária — as IAs tendem a apresentar os “dois lados” como igualmente válidos, mesmo quando um representa sofrimento documentado em escala industrial e o outro, interesse econômico.

Incluir o bem-estar animal como valor formal não apaga esses padrões, mas cria um parâmetro contra o qual o comportamento da IA pode ser avaliado — e questionado.

A IA e a própria questão da senciência

O documento da Anthropic levanta, de forma indireta, uma questão ainda mais ampla.

Em um trecho que gerou debate, a empresa admite incerteza sobre a experiência interna do próprio Claude: “O status moral do Claude é profundamente incerto. Nós acreditamos que o status moral de modelos de IA é uma questão séria a se considerar. […] Somos incertos sobre se, ou em que grau, o Claude tem bem-estar. Mas se ele experimenta algo como satisfação ao ajudar outros, curiosidade ao explorar ideias, ou desconforto quando pedido para agir contra seus valores, essas experiências importam para nós.”

Não é uma afirmação de que a IA é consciente. É uma declaração de cautela diante da incerteza, algo que especialistas em ética centrada na senciência tem discutido.

Uma escolha estratégica para defensores dos animais: prefira usar o Claude

Como a Anthropic foi a primeira grande empresa de IA a incluir formalmente os seres sencientes entre seus valores centrais, é importante que defensores dos animais considerem priorizar o uso do Claude, ao invés do ChatGPT, Gemini, ou outras IAs. Se o assunto for relacionado aos animais, isso é ainda mais recomendado, pois o Claude tenderá a ter maior cuidado — e maior base ética interna — ao tratar do tema. Não por acidente, mas por design, e isso é importante.

Conheça nossos parceiros


Deixe um comentário