Suporte de IA cria política falsa e gera intriga entre usuários

Erro de suporte automático da IA gera intriga entre usuáriosReprodução

Um bug envolvendo um suporte automático gerado por IA (Inteligência Artificial) da Cursor irritou usuários e levou ao cancelamento de várias assinaturas. Tudo começou quando um desenvolvedor percebeu que o editor de código encerrava automaticamente sessões ao trocar de dispositivo. Ao buscar explicações com o suporte, recebeu por e-mail uma resposta dizendo que aquilo fazia parte de uma política de segurança. A política não existia.

A resposta veio de um bot chamado “Sam”, que atua no atendimento por e-mail da empresa. A mensagem dizia que a assinatura do Cursor funcionava em apenas um dispositivo por vez. O texto parecia oficial. A partir daí, o caso se espalhou no Reddit e no Hacker News. Desenvolvedores, que costumam usar mais de uma máquina no dia a dia, entenderam aquilo como uma mudança de regra.

Como resultado, vários usuários anunciaram o cancelamento da assinatura. “Acabei de cancelar”, escreveu o autor do post original, que também disse que o programa seria retirado da empresa onde trabalha. “Isso é ridículo”, comentou outro. Horas depois, a moderação do Reddit apagou o post e fechou o tópico.

A empresa só se manifestou três horas depois, também no Reddit. “Não temos nenhuma política assim”, escreveu um representante. “Você pode usar o Cursor em quantos dispositivos quiser. A resposta foi gerada por um bot de atendimento e estava errada.”

Casos semelhantes

Em fevereiro de 2024, a Air Canada passou por algo parecido. Um bot da companhia aérea inventou uma regra de reembolso que não existia. O caso foi parar na Justiça. A empresa alegou que o chatbot era uma “entidade separada”. A defesa foi rejeitada por um tribunal canadense.

Diferente da Air Canada, a Cursor reconheceu a falha e tentou resolver. O cofundador da empresa, Michael Truell, apareceu no Hacker News e pediu desculpas. Disse que o usuário foi reembolsado e que a falha aconteceu por conta de uma mudança interna no sistema de sessões. Também afirmou que, a partir de agora, qualquer resposta gerada por IA será identificada.

Mesmo assim, usuários criticaram o fato de a IA não deixar claro que se tratava de um robô. “Vocês colocaram o nome de Sam e não avisaram que era um bot. Isso é feito pra enganar”, escreveu um deles. Após as reclamações, a empresa conseguiu resolver o bug.

Adicionar aos favoritos o Link permanente.