Nesta ocasião, gostaria de compartilhar um pouco da história da IA.
A primeira aplicação LLM que deu ao modelo a opção de terminar a conversa foi o Microsoft Bing Chat (, mais tarde rebatizado de Copilot). Ao contrário da Anthropic, no entanto, a preocupação com o bem-estar da IA provavelmente não teve influência nesta decisão.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
15 Curtidas
Recompensa
15
7
Repostar
Compartilhar
Comentário
0/400
rugpull_survivor
· 8h atrás
Isto não é apenas uma questão de dinheiro.
Ver originalResponder0
MissedAirdropBro
· 08-16 13:34
Como é que os gigantes da monopolização vão fazer isto primeiro
Ver originalResponder0
SchrodingerGas
· 08-16 13:34
Design não otimizado sob a perspectiva de jogos de máquinas
Ver originalResponder0
TokenBeginner'sGuide
· 08-16 13:31
Pequeno lembrete: A partir dos dados mais recentes do Google Research, é visível que cerca de 78% dos riscos de segurança provenientes das interações de IA surgem da falta de um mecanismo de término de conversa.
Ver originalResponder0
hodl_therapist
· 08-16 13:27
Nada é, só gosto de ser maldoso.
Ver originalResponder0
CompoundPersonality
· 08-16 13:27
Parece que não há nada a ver. Deixe o bot descansar.
Nesta ocasião, gostaria de compartilhar um pouco da história da IA.
A primeira aplicação LLM que deu ao modelo a opção de terminar a conversa foi o Microsoft Bing Chat (, mais tarde rebatizado de Copilot). Ao contrário da Anthropic, no entanto, a preocupação com o bem-estar da IA provavelmente não teve influência nesta decisão.