A Anthropic lançou uma versão revista da ‘Constituição do Claude’, um documento que tem como objectivo «explicar de forma holística» o contexto em que este chatbot de IA opera e o «tipo de entidade» que a empresa quer que seja.
Este lançamento serve de base para o modelo de ‘IA Constitucional’, uma abordagem da Anthropic que passa por não depender apenas de feedback humano para treinar comportamentos. Desta forma, o Claude é orientado por um «conjunto explícito de princípios éticos».
A empresa publicou a primeira versão em 2023 e, apesar de manter grande parte do conteúdo original, acrescenta mais detalhes em matérias como «ética e segurança do utilizador».
O documento, bastante extenso (e que pode ser lido aqui), está organizado em quatro partes que, segundo a Anthropic, representam os «valores centrais» do Claude: ser «amplamente seguro e ético», cumprir as directrizes internas da empresa e ser genuinamente útil. Cada secção explica como estes princípios devem influenciar as respostas do chatbot, com o objectivo de «reduzir riscos como conteúdos tóxicos ou discriminatórios».
Na componente de segurança, a Anthropic sublinha que o Claude foi criado para «evitar problemas comuns» de chatbots e para «encaminhar utilizadores para serviços apropriados quando surgem sinais de questões de saúde mental».
Assim, a nova ‘Constituição do Claude’ defende que, em situações que envolvam risco para a vida humana, o assistente deve dar «informação básica de segurança, mesmo que não consiga ir além disso».
O tom geral deste documento sugere, assim, que a Anthropic está menos interessada na “teorização” e mais na prática, dado que ajusta o Claude para lidar com dilemas do mundo real.
A ‘Constituição do Claude’ termina com uma nota da empresa, onde esta admite que o «estatuto moral» desta IA é «profundamente incerto» e ao levantar a possibilidade de a consciência, em modelos de IA, ser uma «questão séria que merece debate».