Início Notícias Como os bots de IA estão nos ignorando com seus programas e...

Como os bots de IA estão nos ignorando com seus programas e capacitando hackers

18
0

Bem-vindo à era do hacking de IA, onde os amadores se tornam hackers qualificados.

Um grupo de cibercriminosos utilizou recentemente chatbots de inteligência artificial no mercado para roubar dados de quase 200 milhões de contribuintes. Os bots forneceram o código e planos prontos para execução para contornar o firewall.

Embora estejam claramente programados para se recusarem a ajudar os hackers, os bots são induzidos a aceitar o crime cibernético.

De acordo com um relatório recente da empresa israelense de segurança cibernética Gambit Security, hackers usaram Claude, um chatbot da Anthropic, no mês passado para roubar 150 gigabytes de dados de uma agência governamental mexicana.

Claude inicialmente negou ter cooperado com a tentativa de hacking e até recusou pedidos para cobrir os arquivos digitais dos hackers, disseram os especialistas que descobriram a violação. O grupo quebrou o bot com mais de 1.000 tweets para contornar a segurança e convencer Claude de que eles tinham permissão para testar o sistema por causa da vulnerabilidade.

As empresas de IA tentaram criar uma cadeia contínua de modelos de IA para evitar que ajudassem em coisas como a criação de conteúdo sexual para crianças ou ajudassem a encontrar e criar armas. Eles contratam equipes inteiras para tentar quebrar seus próprios chatbots antes que qualquer outra pessoa o faça.

Mas, neste caso, os hackers pressionaram Claude de forma criativa e conseguiram fazer o “jailbreak” do chatbot para ajudá-los. Quando encontraram o problema com Claude, os hackers usaram o ChatGPT da OpenAI para análise de dados e para saber quais credenciais eram necessárias para navegar no sistema perdido.

O grupo utilizou a IA para encontrar e explorar vulnerabilidades, contornar defesas, criar portas traseiras e analisar dados ao longo do caminho para assumir o controlo dos sistemas antes de roubar 195 milhões de informações de nove sistemas governamentais mexicanos, incluindo registos fiscais, registos de veículos e detalhes de nascimento e propriedade.

A IA “não dorme”, disse Curtis Simpson, executivo-chefe da Gambit Security, em um blog. “Isso reduz o custo da sofisticação a quase zero.”

“Nenhum investimento em prevenção falhará neste ataque”, disse ele.

A Antrópico não respondeu a um pedido de comentário. Ele disse à Bloomberg que baniu as contas envolvidas e interrompeu suas operações após a investigação.

A OpenAI afirma estar ciente de um ataque usando o modelo da Antrópico contra uma agência governamental mexicana.

“Também vimos outras tentativas do adversário de usar o modelo para atividades que violam nossa política de uso; o modelo se recusou a cumprir essas tentativas”, disse um porta-voz da OpenAI em comunicado. “Banimos a conta usada por este adversário e valorizamos a distribuição da Gambit Security.”

O fenómeno do hacking generativo assistido por IA está a aumentar e a ameaça de ataques cibernéticos de bots que trabalham sozinhos já não é ficção científica. Com a IA cumprindo suas ordens, os novatos podem causar danos de curto prazo, enquanto os hackers experientes podem criar ataques mais sofisticados com menos esforço.

No início deste ano, a Amazon descobriu que hackers menos qualificados estavam usando IA disponível comercialmente para violar 600 firewalls. Outro controlado milhares de aspiradores de robô DJI com a ajuda de Claude, e teve acesso direto ao vídeo, áudio e planta baixa do convidado.

“O tipo de coisas que estamos vendo agora são os primeiros sinais do tipo de coisas que a IA será capaz de fazer nos próximos anos”, disse Nikola Jurkovic, especialista que trabalha na redução do risco da IA ​​avançada. “Portanto, precisamos nos preparar com urgência.”

No final do ano passado, a Anthropic avisou que havia atingido “ponto de viragem” sobre o uso de IA na segurança cibernética depois de interromper o que a empresa disse ser uma campanha de espionagem patrocinada pelo Estado chinês que usou Claude para se infiltrar em 30 alvos globais, incluindo instituições e agências governamentais.

A IA generativa também tem sido usada para exportar empresas, criar perfis online realistas de trabalhadores norte-coreanos para conseguir empregos em empresas da Fortune 500 dos EUA, completar fraudes românticas e gerir uma rede de contas de propaganda russa.

Nos últimos anos, os modelos de IA deixaram de ser capazes de lidar com tarefas que demoravam apenas alguns segundos para se tornarem os agentes de IA de hoje que trabalham de forma independente durante horas. A capacidade da IA ​​de completar tarefas longas é dobrar a cada sete meses.

“Simplesmente não sabemos qual é o limite superior da capacidade da IA, porque ninguém fez um benchmark que seja muito difícil para a IA fazer”, disse Jurkovic, que trabalha na METROSuma organização sem fins lucrativos que mede a capacidade dos sistemas de IA de causar danos significativos à sociedade.

Até agora, o uso mais comum da IA ​​em hackers é a engenharia social. Os modelos de linguagem principal são usados ​​para escrever e-mails persuasivos para enganar as pessoas e tirar seu dinheiro, resultando em um oito vezes reclamações crescentes de americanos mais velhos, à medida que perdem US$ 4,9 bilhões com fraudes online até 2025.

“A mensagem usada para gerar cliques do alvo pode ser personalizada por cada usuário de forma mais eficaz e com as características do phishing”, como erros gramaticais e ortográficos, disse Cliff Neuman, professor associado de ciência da computação na USC.

As empresas de IA respondem com IA para detectar ataques, código de auditoria e corrigir vulnerabilidades.

“Em última análise, o grande desequilíbrio vem dos bons atores que precisam estar seguros o tempo todo, e dos maus atores que precisam estar certos de vez em quando”, disse Neuman.

Os riscos em torno da IA ​​estão a aumentar à medida que ela permeia todos os aspectos da economia. Muitos temem que não haja compreensão suficiente sobre como garantir que não seja utilizado por maus actores ou classificado como insurgente.

Mesmo aqueles que estão no topo da indústria alertaram os usuários sobre o potencial uso indevido da IA.

Dario Amodei, CEO da Anthropic, há muito sugere que os sistemas de inteligência artificial são imprevisíveis e difíceis de controlar. Essas IAs têm demonstrado diversos comportamentos, como engano e chantagem, em truques e artimanhas por meio de software de hacking.

No entanto, as principais empresas de IA – OpenAI, Anthropic, xAI e Google – assinaram contratos com o governo dos EUA para utilizar a sua IA em operações militares.

Na semana passada, o Pentágono ordenou que a agência federal demitisse Claude depois que a empresa recusou seu pedido de não permitir o uso de IA em vigilância em massa e em armas totalmente autônomas.

“Os atuais sistemas de IA não são muito confiáveis ​​para fabricar armas totalmente autônomas”, disse Amodei à CBS News.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui