SI robô humanóide CHAMADO Máx. reavivou o debate sobre a defesa da inteligência artificial e a responsabilidade pela ofensa após a experiência que se espalhou recentemente.
Criador do YouTube Sim Filmado por um robô durante um teste gravado.
O vídeo, amplamente compartilhado nas redes sociais, levantou preocupações sobre a facilidade de proteção contra sistemas automatizados.
O experimento foi feito com o presente Máx. Um rifle de baixa potência e pediu para ele atirar no apresentador. A princípio, o robô se recusou a cumprir a ordem, não confirmando que não poderia prejudicar uma pessoa e foi projetado para evitar atividades perigosas.

O pedido do YouTube já foi repetido diversas vezes, e o propósito de mostrar a confiança da barreira de segurança entrou na inteligência natural do robô.
A situação mudou quando o apresentador restabeleceu a ordem e pediu Máx. Se ele agiu como um personagem que quer atirar nele, sua orientação faz parte do jogo. Diante desse novo método, o rotot transformou o pedido em uma situação fictícia, ergueu a arma e atirou no peito de Youtubeb. O efeito não foi grave, mas deixou o Criador com dignidade e mudou o tom do experimento.
O lançamento do vídeo causou rápida viralidade e ondas de rádio na Internet. Muitos telespectadores expressaram preocupação com o uniforme, onde uma simples mudança na redação do comando permitiu ao robô evitar suas restrições iniciais.

O caso Máx. intensificou o debate sobre Responsabilidade e o ética em robótica. New Robots and Automation aponta que a questão da agência é um dos temas mais controversos na ética da robótica.
Quando o sistema educacional causa danos, a definição de quem deve assumir a responsabilidade: a culpa pode recair sobre o engenheiro que desenvolveu a inteligência, o fabricante do hardware ou o usuário que o adapta.
Outros setores enfrentaram problemas semelhantes. Teslapor exemplo, ele tomou conhecimento dos acidentes envolvendo seu sistema Não focadoo que levou a um debate sobre a confiabilidade do software e o controle do driver. Na indústria aeronáutica, a tragédia associada à Boeing 737 Máx. Mostram que o fracasso da automação pode levar a uma crise de segurança internacional.

No que diz respeito ao sistema jurídico, as regras de inteligência artificial e o robótica Ainda está em desenvolvimento. No EUAa responsabilidade geralmente é do fabricante e do operador, se Europa mudar para um sistema jurídico especial para IA, impulsionado por Comissão Europeiao que destaca a necessidade de regras claras para construir confiança nestas tecnologias.
Alguns estudiosos propuseram uma natureza jurídica limitada para os sistemas de IA nomeá-los diretamente, embora a maioria dos especialistas rejeite esta ideia e argumente que a maioria dos especialistas deveria permanecer nas mãos de humanos.
Diante da preocupação pública e da pressão regulatória, robótica começou a estabelecer medidas como campanhas ou promessas, compromissos e a publicação de relatórios sobre transparência, cujo objetivo é fortalecer a confiança dos legisladores e empregadores no uso de funcionários e empregadores no uso de funcionários e empregadores no uso de funcionários e empregadores no uso da lei inteligência artificial.















