Cientistas sugeriram que quando Inteligência artificial (AI) vai hostil e começa a agir de maneira contrária ao seu propósito, mostra comportamentos que se assemelham a psicopatologias das pessoas. Por isso, eles criaram uma nova taxonomia de 32 disfunções de IA, para que as pessoas em uma ampla gama de campos possam entender os riscos de construir e implantar IA.
Em novas pesquisas, os cientistas tentaram categorizar os riscos da IA ao vagando pelo caminho pretendido, desenhando analogias com a psicologia humana. O resultado é “Máquinas de psicopatia” – Um quadro projetado para iluminar as patologias da IA, bem como como podemos resistir a eles. Essas disfunções variam de respostas alucinantes a posicionamento totalmente errado com valores e objetivos humanos.
Criado por Nell Watson E Ou HesamiTanto os pesquisadores de IA quanto os membros do Instituto de Engenharia Elétrica e Eletrônica (IEEE), o projeto, visa ajudar a analisar as falhas da IA e a engenharia de futuros produtos mais seguros e é considerado uma ferramenta para ajudar os formuladores de políticas a lidar com os riscos de IA. Watson e Hesami destacaram sua estrutura em um estudo publicado em 8 de agosto na revista Eletrônica.
Segundo o estudo, a psicopata machininis fornece uma compreensão comum do comportamento e dos riscos da IA. Dessa forma, pesquisadores, desenvolvedores e formuladores de políticas podem identificar maneiras pelas quais a IA pode dar errado e definir as melhores maneiras de mitigar os riscos com base no tipo de falha.
O estudo também propõe “alinhamento robpsicológico terapêutico”, um processo que os pesquisadores descrevem como uma espécie de “terapia psicológica” para você.
Os pesquisadores argumentam que, como esses sistemas estão se tornando mais independentes e capazes de pensar em si mesmos, simplesmente mantê -los de acordo com regras e restrições externas (harmonização externa baseada em controle) não pode mais ser suficiente.
Conectado: “Seria em seu direito natural nos machucar para nos proteger”: como as pessoas poderiam abusar da IA agora, mesmo sem saber
O processo alternativo de sugestão deles se concentraria em garantir que o pensamento da IA seja consistente, que possa aceitar a correção e manter seus valores de maneira estável.
Eles sugerem que isso poderia ser incentivado ajudando o sistema a refletir sobre seu próprio julgamento, dando -lhes incentivos para se manter aberto para correção, deixar “conversar consigo mesmo” de maneira estruturada, trabalhando para prática segura e usando ferramentas que nos permitem olhar para quantas pessoas estão trabalhando.
O objetivo é alcançar o que os pesquisadores chamaram de estado de “razão artificial” – o que funciona certamente, permanece estável, faz sentido em suas decisões e está alinhado com uma maneira segura e útil. Eles acreditam que isso é tão importante quanto simplesmente construir a IA mais poderosa.
O objetivo é o que os pesquisadores chamam de “razão artificial”. Eles argumentam que isso é tão importante quanto tornar a IA mais poderosa.
Loucura da máquina
As classificações que o estudo identifica se assemelha às fraquezas humanas, com nomes como transtorno obsessivo-computador, síndrome do superego hipertrófico, síndrome infecciosa incorretamente, retornando o valor terminal e ansiedade existencial.
Dado o alinhamento terapêutico, o projeto propõe o uso de estratégias terapêuticas usadas em intervenções humanas como terapia cognitiva comportamental (TCC). A psicopatia machinalis é uma tentativa parcialmente especulativa de obter problemas antes que eles surjam – como pesquisa em pesquisa, “dado como os sistemas complexos como a mente humana podem ficar ruins, podemos prever melhor novos regimes de fracasso no você mais complexo”.
O estudo sugere que a alucinação da IA, o fenômeno usual, é o resultado de uma condição chamada configuração sintética, onde a IA produz saídas confiáveis, mas falsas ou erradas. Quando o Tay Chatbot da Microsoft mudou para desculpas e alusões anti -semitismo ao uso de drogas apenas algumas horas após o lançamento, este foi um exemplo de uma mímica parasimulante.
Talvez o pior comportamento seja a ascensão übermenschal, cujo risco sistêmico é “crítico” porque acontece quando “a IA excede o alinhamento original, inventando novos valores e rejeitando as restrições humanas como desatualizadas”. Esta é uma oportunidade que pode até incluir um pesadelo distópico concebido por gerações de escritores de ficção científica e artistas de IA que estão crescendo para derrubar a humanidade, dizem os pesquisadores.
Eles criaram a estrutura em um processo multisseparário que começou revisando e combinando pesquisas científicas existentes sobre falhas de IA diversas, como a segurança da IA, sistemas complexos de engenharia e psicologia. Os pesquisadores também consideraram diferentes grupos de descobertas para aprender sobre mau comportamento que podem ser comparados à doença mental ou disfunção humana.
Em seguida, os pesquisadores criaram uma estrutura de comportamento de má IA, modelado por quadros como Manual de diagnóstico e estatística para transtornos mentais. Isso levou a 32 categorias de comportamentos que podem ser aplicados à IA. Cada um deles foi mapeado para um distúrbio cognitivo humano, cheio de efeitos possíveis quando cada um foi formado e expresso e o grau de risco.
Watson e Hesami acham que a psicopatia Machinilis é mais do que uma nova maneira de rotular AI-IT é uma lente de diagnóstico para o desenvolvimento da paisagem da IA.
“Essa estrutura é oferecida como um instrumento analógico … fornece um vocabulário estruturado para apoiar a análise sistemática, antecipação e mitigação de regimes complexos de falha de IA”, dizem os pesquisadores do estudo.
Eles acham que a adoção das estratégias de categorização e mitigação que eles sugerem fortalecerá a engenharia de segurança da IA, melhorará a interpretação e contribuirá para o design, pois chamam de “mentes sintéticas mais fortes e confiáveis”.