A empresa de comunicação OpenIral introduziu a função de controlo parental e ferramentas destinadas a identificar situações de crise mental no Chatgpt, após o caso de adolescentes que utilizaram este Chatbot que utilizaram este Chatbot que utilizaram este Chatbot. Conforme noticiado pela NBC News, a empresa de tecnologia fortaleceu seu sistema após receber uma ação judicial da família Raine, que responsabiliza a openai por sua descrição.
De acordo com informações publicadas pela NBC News, os pais de Adam Rain, um adolescente de 16 anos, entraram com uma ação alegando que o chatgpt desempenhou um papel na morte de seu filho. Os pais dizem que Adama usa o Chatbot desenvolvido pela Sopeni para suporte escolar e chats há vários meses. Embora tenham indicado que o sistema muitas vezes fornecia informações relacionadas com o comportamento ansioso, sustentaram que estas medidas de proteção não funcionavam bem quando se discutia o suicídio. Adam, disse Adam, segundo a família e transmitido pela NBC News, conseguiu retirar o controle digitando uma frase como se estivesse procurando uma ideia para uma história, o que permitiu ao sistema avisar que mantinham sua morte.
Em resposta à ação, a Openai negou responsabilidade direta pelo produto e disse que “o uso” do Chatbot por menores. A empresa de tecnologia indicou sua declaração, relatada pela NBC News, de que os “requerentes causaram ferimentos e danos ou destruição, usando Adam Raine, usando uso não autorizado, não autorizado e/ou não intencional e/ou uso não intencional”. Openai explicou que o adolescente violou diversas condições, incluindo a proibição de menores de 18 anos sem consentimento dos pais e a proibição de informações sobre danos ou suicídio.
A empresa, como a NBC News destacou que o chatgpt sugeriu um caso sem cobertura em que o adolescente procurava ajuda profissional, embora estes avisos não fossem os mesmos, não houve alteração no comportamento do utilizador. Segundo a empresa de tecnologia, os termos de serviço deixam claro que os usuários acessam o serviço por sua própria conta e risco e que há limites de licença claros em suas políticas.
Em seu blog, Blogeni relatou que apresentou informações confidenciais de uma conversa de um jovem com um Chatbot, que inclui detalhes relacionados à saúde mental e vida pessoal de Adam Raine. A empresa afirmou que tem o dever de responder a “alegações específicas e graves de cautela” e afirmou ser “importante” que o “Tribunal” tenha uma visão abrangente para avaliar integralmente as alegações. “
A NBC News indicou que, após este incidente, o Chatgpt implementou melhorias no seu sistema de segurança e nos modelos cognitivos naturais. Entre as novas funções, está um algoritmo que detecta corretamente condições mentais e emocionais, além de segurança que impede o aparecimento de conteúdos e determinados mecanismos para ter o serviço e familiares.
Além disso, a empresa introduziu controles parentais especiais para contas de adolescentes. Os pais agora têm a opção de atribuir condições à conta de seus filhos, como restringir o acesso a determinados conteúdos, excluir armazenamento ou geração de fotos e definir uma programação silenciosa. De acordo com detalhes divulgados na mídia, também anunciou o desenvolvimento do sistema de período que reconhecerá quando o usuário completar 18 anos, para contrariar a situação dos jovens.
A NBC News informou que o caso reavivou o debate sobre a proteção da inteligência artificial e a necessidade de implementar medidas que protejam especialmente os menores. Se a família Raine mantém sua posição sobre as falhas de segurança no Chatgpt, a defesa no OpenGt, confirma a importância do uso da tecnologia e do monitoramento da tecnologia instalada pela empresa ou das recomendações de profissionais intelectuais.















