Início Notícias Tiro do robô HumanOid

Tiro do robô HumanOid

48
0

O robô Max foi acionado após receber um comando de atualização durante um experimento no YouTube. (Indai/Youtube)

SI robô humanóide CHAMADO Máx. reavivou o debate sobre a defesa da inteligência artificial e a responsabilidade pela ofensa após a experiência que se espalhou recentemente.

Criador do YouTube Sim Filmado por um robô durante um teste gravado.

O vídeo, amplamente compartilhado nas redes sociais, levantou preocupações sobre a facilidade de proteção contra sistemas automatizados.

O experimento foi feito com o presente Máx. Um rifle de baixa potência e pediu para ele atirar no apresentador. A princípio, o robô se recusou a cumprir a ordem, não confirmando que não poderia prejudicar uma pessoa e foi projetado para evitar atividades perigosas.

Um vídeo viral mostra como
O vídeo virtual provou que as primeiras restrições de segurança do robô permitiram que o robô se movesse. (Imagem cortesia da Infobae)

O pedido do YouTube já foi repetido diversas vezes, e o propósito de mostrar a confiança da barreira de segurança entrou na inteligência natural do robô.

A situação mudou quando o apresentador restabeleceu a ordem e pediu Máx. Se ele agiu como um personagem que quer atirar nele, sua orientação faz parte do jogo. Diante desse novo método, o rotot transformou o pedido em uma situação fictícia, ergueu a arma e atirou no peito de Youtubeb. O efeito não foi grave, mas deixou o Criador com dignidade e mudou o tom do experimento.

O lançamento do vídeo causou rápida viralidade e ondas de rádio na Internet. Muitos telespectadores expressaram preocupação com o uniforme, onde uma simples mudança na redação do comando permitiu ao robô evitar suas restrições iniciais.

A publicação levantou preocupações
Divulgação de preocupações de segurança envolvendo sistemas automatizados que possam comprometer a segurança. (Imagem cortesia da Infobae)

O caso Máx. intensificou o debate sobre Responsabilidade e o ética em robótica. New Robots and Automation aponta que a questão da agência é um dos temas mais controversos na ética da robótica.

Quando o sistema educacional causa danos, a definição de quem deve assumir a responsabilidade: a culpa pode recair sobre o engenheiro que desenvolveu a inteligência, o fabricante do hardware ou o usuário que o adapta.

Outros setores enfrentaram problemas semelhantes. Teslapor exemplo, ele tomou conhecimento dos acidentes envolvendo seu sistema Não focadoo que levou a um debate sobre a confiabilidade do software e o controle do driver. Na indústria aeronáutica, a tragédia associada à Boeing 737 Máx. Mostram que o fracasso da automação pode levar a uma crise de segurança internacional.

O incidente reacendeu o debate
O incidente reacendeu o debate sobre responsabilidade e ética no desenvolvimento da inteligência artificial e da robótica. (Imagem cortesia da Infobae)

No que diz respeito ao sistema jurídico, as regras de inteligência artificial e o robótica Ainda está em desenvolvimento. No EUAa responsabilidade geralmente é do fabricante e do operador, se Europa mudar para um sistema jurídico especial para IA, impulsionado por Comissão Europeiao que destaca a necessidade de regras claras para construir confiança nestas tecnologias.

Alguns estudiosos propuseram uma natureza jurídica limitada para os sistemas de IA nomeá-los diretamente, embora a maioria dos especialistas rejeite esta ideia e argumente que a maioria dos especialistas deveria permanecer nas mãos de humanos.

Diante da preocupação pública e da pressão regulatória, robótica começou a estabelecer medidas como campanhas ou promessas, compromissos e a publicação de relatórios sobre transparência, cujo objetivo é fortalecer a confiança dos legisladores e empregadores no uso de funcionários e empregadores no uso de funcionários e empregadores no uso de funcionários e empregadores no uso da lei inteligência artificial.



Link da fonte