Na terça -feira, Openai anunciado Planos de lançar controles parentais para ChatGPT e rota conversas sensíveis à saúde mental para seus modelos de raciocínio simulado, seguindo o que a empresa chamou de “casos de partir o coração” de usuários experimentando crises enquanto usa o assistente de IA. Os movimentos vêm depois de vários relatados incidentes onde o chatgpt supostamente falhou em intervir adequadamente quando os usuários expressaram pensamentos suicidas ou experimentaram episódios de saúde mental.
“Este trabalho já está em andamento, mas queremos visualizar proativamente nossos planos para os próximos 120 dias, para que você não precise esperar o lançamento para ver para onde estamos indo”, escreveu Openai em um post publicado no blog na terça -feira. “O trabalho continuará muito além desse período, mas estamos fazendo um esforço focado para lançar o maior número possível de melhorias neste ano”.
Os controles dos pais planejados representam a resposta mais concreta do OpenAI às preocupações com a segurança dos adolescentes na plataforma até agora. No próximo mês, diz o Open, os pais poderão vincular suas contas às contas de bate-papo de seus adolescentes (Mínimo de 13 anos) por meio de convites por e-mail, controlar como o modelo de IA responde com regras de comportamento apropriadas para a idade que estão ligadas ao inadimplência, gerenciar quais recursos para desabilitar (incluindo histórico de memória e bate-papo) e receber notificações quando o sistema detecta seu adolescente que experimenta a paisagem acesa.
Os controles dos pais se baseiam nos recursos existentes, como lembretes no aplicativo durante longas sessões que incentivam os usuários a fazer pausas, que o OpenAI foi lançado para todos os usuários em agosto.
Casos de alto perfil motivam mudanças de segurança
A nova iniciativa de segurança da OpenAI chega depois que vários casos de alto nível atraíram escrutínio para o manuseio de usuários vulneráveis pelo ChatGPT. Em agosto, Matt e Maria Raine Arquivo de arquivamento Contra o OpenAI depois que o filho de 16 anos, Adam, morreu por suicídio após extensas interações ChatGPT que incluíram 377 mensagens sinalizadas para o conteúdo de auto-mutilação. De acordo com documentos do tribunal, o ChatGPT mencionou suicídio 1.275 vezes em conversas com Adam – mais vezes mais frequentemente do que o próprio adolescente. Na semana passada, The Wall Street Journal relatado Que um homem de 56 anos matou sua mãe e a si mesmo depois que Chatgpt reforçou seus delírios paranóicos, em vez de desafiá-los.
Para orientar essas melhorias de segurança, o OpenAI está trabalhando com o que chama de um Conselho de Especialistas sobre bem-estar e IA para “moldar uma visão clara e baseada em evidências sobre como a IA pode apoiar o bem-estar das pessoas”, de acordo com a postagem do blog da empresa. O conselho ajudará a definir e medir o bem-estar, definir prioridades e projetar salvaguardas futuras, incluindo os controles dos pais.