Início Notícias O boletim de segurança inclui empresas de IA que tentam proteger os...

O boletim de segurança inclui empresas de IA que tentam proteger os humanos

38
0

As empresas de inteligência artificial podem proteger os humanos dos perigos da IA? Não peça isso, diz um novo cartão.

À medida que a IA desempenha um papel mais importante na forma como as pessoas interagem com a tecnologia, o perigo é cada vez maior – pessoas que utilizam o AI-POSTE para aconselhamento e depois cometem suicídio, suicídio ou utilizam a IA para ataques cibernéticos. Também existe um risco – a IA está habituada a fabricar armas ou subversivos.

No entanto, não há incentivo suficiente para que as empresas de IA priorizem a preservação da humanidade, e isso se reflete na referência à segurança da IA ​​que visa interromper o caminho seguro e limitar os riscos para a humanidade.

“São as únicas indústrias de alta tecnologia que não foram completamente eliminadas, de modo que correm em direção aos seus parentes que nada têm a ver com segurança”, disse em entrevista o presidente do Instituto e professor Max Tegmark.

O maior grau concedido é apenas AC+, concedido à San Francisco Ai Company: openai, que gera chatgpt, e anthropika, conhecida por seu modelo AI Chatbot. A divisão de IA do Google, Google Depiemind, em homenagem a C.

A classificação ainda mais baixa é a empresa Meta, do Facebook, sediada em Menso Park, e a joint venture de Elon Musk, Palo e Elon, à qual as empresas chinesas z.ai e ieproeek receberam a classificação mais baixa.

A classificação geral da empresa foi baseada em 35 pontos em seis categorias, incluindo segurança, avaliação de riscos e compartilhamento de informações. O Índice reuniu evidências baseadas em materiais e respostas públicas de empresas por meio de pesquisas. Os comentários foram feitos a oito especialistas em inteligência, um grupo que inclui acadêmicos e chefes de organizações relacionadas à IA.

Todas as empresas do Índice atribuíram prioridade à proteção da segurança existente, o que inclui o controlo interno e a monitorização do controlo e controlo da segurança.

“Embora as empresas estejam acelerando a adoção de Agi e SuperIntelligence, nenhuma provou planos confiáveis ​​para evitar o uso acidental ou perda de controle”, disse o relatório do Índice de Segurança de IA da Investute.

Tanto o Google Meepmind quanto a Annenai disseram que os encomendaram com grande esforço.

“A segurança tem tudo a ver com a forma como construímos e implantamos IA”, disse Openai em comunicado. “Dependemos de muita investigação, quebramos as fortes defesas do nosso sistema académico e somos rigorosos no que diz respeito aos prazos e aos peritos independentes.

O Google Depiemind disse em comunicado que é “uma abordagem robusta e científica para a segurança de IA”.

“O sistema de proteção de fronteira aqui primeiro diferencia os protocolos especiais para identificação e mitigação de riscos graves à saúde do modelo de IA Frontier Ai antes de serem revelados”, disse o Google Deepmind. “À medida que nosso modelo se torna mais avançado, continuamos a inovar a segurança e o gerenciamento em um ritmo rápido”.

O Relatório sobre o Futuro da Vida afirmou que não há compromisso com a monitorização e o controlo, embora tenham quadros, e não forneceram provas da sua gestão, mas não fornecem muitas provas para além da investigação em saúde. Outras empresas como Deepseek, Z.AI e Alibaba não têm documentos disponíveis publicamente sobre as suas estratégias de segurança, disse o Instituto.

Meta, Z.ai, Deepseek, Alibaba e anthropic não retornaram pedidos de comentários.

“A comunicação social está a mentir”, respondeu Xai. Um advogado que representa Musk não respondeu imediatamente ao pedido de comentários adicionais.

Musk é um consultor para o futuro das instituições de vida e já forneceu financiamento para organizações sem fins lucrativos no passado, mas não está incluído no Índice AI, disse Tegmark.

Tegmark disse que se não houver controle suficiente da indústria de IA, isso poderá ajudar os terroristas a manipular armas biológicas, manipular métodos mais eficazes do que são agora ou comprometer a integridade do governo em alguns casos.

“Sim, temos muitos problemas e coisas ruins, mas queremos enfatizar como é fácil resolvê-los”, disse Tegmark. “Só precisamos de padrões de segurança para as empresas de IA.”

Têm sido feitos esforços no governo para controlar a vigilância da IA ​​e de alguns projetos de lei, mas alguns projetos de lei foram rejeitados por grupos de hospitalidade que transferem mais controlo e obrigam as empresas a mudarem-se para outro lugar.

Mas existem algumas leis que visam monitorizar melhor os padrões de segurança das empresas de IA, incluindo a SB 53, que foi assinada pelo governador Gavin Newsom em setembro. Exige que as empresas compartilhem o protocolo e as medidas de segurança e relatem incidentes como ataques cibernéticos ao estado. Tegmark considerou a nova lei um passo na direção certa, mas é necessário mais.

Rob Enderle, analista principal do grupo Victory Advisors, disse que acha que o índice de IA é uma maneira interessante de abordar a questão fundamental de a IA ser sub-regulamentada nos EUA, mas desafiadora.

“Não está claro para mim se os EUA e os estados hoje são capazes de ter uma boa ideia – através das regras actuais, o que significa que as regras podem ser eficazes”, disse Enderle. “Também não está claro se alguém descobriu como implementar as regras para garantir o cumprimento.”

Link da fonte