A rivalidade entre os gigantes da Inteligência Artificial acabou de subir de tom, e o campo de batalha foi o intervalo da Super Bowl LX. A Anthropic, criadora do chatbot Claude, aproveitou o evento desportivo mais visto dos Estados Unidos para lançar um ataque direto e humorístico à OpenAI, capitalizando sobre a recente e impopular decisão de introduzir publicidade no ChatGPT.
A campanha, que pode ser descrita como um “trollanço” de alto nível, posiciona o Claude como o refúgio ético e limpo para quem quer usar IA sem ser vendido como produto. A mensagem foi clara e demolidora: “Os anúncios chegam à IA. Mas não ao Claude”.

O anúncio que pôs o dedo na ferida
O anúncio televisivo foi desenhado para tocar num ponto sensível. O vídeo mostra um utilizador a desabafar com uma hipotética psicóloga baseada em IA. A meio de um conselho emocional e sensível, a “terapeuta” digital interrompe subitamente o discurso para recitar um anúncio publicitário.
A cena é cómica, mas ilustra um medo real: a intrusão comercial em momentos de vulnerabilidade ou reflexão. A Anthropic usa esta sátira para destacar o contraste com o seu próprio modelo, garantindo que no Claude, a conversa é sagrada.
Esta jogada de marketing surge poucas semanas após a OpenAI ter confirmado, a 19 de janeiro, que o ChatGPT passaria a incluir anúncios, mesmo para alguns subscritores pagos. A reação da comunidade foi negativa, e a Anthropic não perdeu tempo a explorar esse descontentamento.
“Claude é um espaço para pensar”
A acompanhar os anúncios de TV, a Anthropic publicou um manifesto no seu blogue intitulado “Claude é um espaço para pensar”. Neste texto, a empresa rejeita categoricamente o modelo de negócio baseado em publicidade, argumentando que este é incompatível com a sua visão de criar um assistente “genuinamente útil”.
“A inclusão de anúncios seria incompatível com o que queremos que o Claude seja”, afirma a empresa. A promessa é de que os utilizadores nunca verão links patrocinados nas suas conversas, nem terão as suas respostas subtilmente manipuladas por interesses comerciais de terceiros.
O perigo da IA “vendedora”
A Anthropic vai mais longe na sua argumentação, tocando em questões de ética e privacidade. A empresa sublinha que as conversas com chatbots têm frequentemente um contexto muito mais profundo e privado do que uma simples pesquisa no Google. Os utilizadores discutem problemas de trabalho complexos, dilemas pessoais e até questões de saúde mental.
A “Constituição do Claude”, o documento que rege o comportamento ético do modelo, proíbe incentivos ocultos. A empresa dá um exemplo prático: se um utilizador diz que tem problemas em dormir, um assistente com publicidade poderia ver isso como uma oportunidade para vender comprimidos ou colchões. O Claude, por outro lado, foca-se em explorar as causas e encontrar soluções comportamentais, sem segundas intenções.
“Os utilizadores não deveriam ter de duvidar se uma IA está realmente a ajudá-los ou se está subtilmente a dirigir a conversa para algo monetizável”, defende a Anthropic.
Com esta campanha, a Anthropic define a sua trincheira: enquanto o ChatGPT se aproxima do modelo da Google (pesquisa + anúncios), o Claude quer ser o parceiro intelectual de confiança, onde o utilizador é o cliente, não o produto.
Outros artigos interessantes:








