Início Notícias Hiltzik: O que nos separa das máquinas

Hiltzik: O que nos separa das máquinas

13
0

Está se tornando cada vez mais claro a cada dia que legisladores, líderes empresariais e defensores da IA ​​não são as únicas pessoas que lutam para controlar o impacto da inteligência artificial na sociedade. Eles são juízes.

Na verdade, nas últimas semanas, os juízes de dois casos federais traçaram uma linha que parece alienar muitos outros pensadores da IA. O caso envolve lei de direitos autorais e privilégio advogado-cliente.

Em ambos os casos, o juiz declarou com sucesso que os bots de IA são não humano. Não têm direitos humanos e os seus produtos não merecem ser considerados fruto do engenho humano ou de alta tecnologia especial.

A criatividade tem de permanecer humana ou os sistemas computacionais autónomos poderão realmente decolar?

– Artista e cientista da computação Stephen Thaler

Existem mais casos do que isso. Estes dois casos, incluindo um que chegou ao Supremo Tribunal, destacam a determinação dos promotores e da utilização da IA ​​para integrar mais profundamente a nova tecnologia na sociedade.

Comece com o caso mais recente. Na segunda-feira, a Suprema Corte recusou-se a ouvir um processo que tentava proteger os direitos autorais da obra de arte do artista e cientista da computação Stephen Thaler, que ele admitiu ter sido criado por um bot de IA de sua própria criação. Isto seguiu-se a uma decisão do ano passado do Tribunal de Apelações do Distrito de Columbia, que afirmou que a arte criada por não-humanos não pode ser protegida por direitos de autor.

Receba as últimas notícias de Michael Hiltzik

O caso girava em torno de uma pintura de 2012 intitulada “Nova entrada no paraíso”, que retratava trilhos de trem passando sob uma ponte e desaparecendo na vegetação. Thaler escreveu em seu pedido de direitos autorais que o “autor” da obra era a “Máquina de Criação”, um dispositivo de IA, e que a obra foi “criada somente pela máquina”.

O julgamento não se dedicou à crítica artística, mas a origem da obra artificial pode ser vista por um olhar perspicaz — seu mundo é movimentado mas não claro, uma espécie de cor verde e roxa, e a composição não tem lógica artística — o olho não sabe o que seguir. Mas Thaler disse que foi criado por um bot de IA e não em resposta a qualquer tweet de usuário.

De qualquer forma, para a juíza Patricia A. Millett, que redigiu o parecer para o painel unânime de três juízes, o caso não foi encerrado. Ele citou uma regra de longa data do Copyright Office que exige que “para que uma obra seja protegida por direitos autorais, ela deve ser a obra original”.

Millett observou que Thaler não se preocupou em esconder a origem não humana da “Entrada Recente”, admitindo em documentos judiciais que a pintura era “desumana”. Ele rejeitou o argumento de Thaler, tal como o fez o juiz federal que ouviu o caso pela primeira vez, de que a insistência do Copyright Office de que os autores devem ser humanos é inconstitucional. A Suprema Corte aparentemente concordou.

Thaler me disse que não via a rejeição da Suprema Corte como uma “derrota legislativa”. Numa publicação no LinkedIn sobre o assunto, ele escreveu que a decisão “representa um passo filosófico – que mostra a profundidade do nosso sistema de propriedade intelectual face à criação de máquinas autónomas”.

Assim, Thaler acredita que não devemos diferenciar a nossa visão da natureza humana daquela dos produtos feitos à máquina. “Inteligência, invenção e criatividade não se limitam aos produtos humanos”, ele me disse por e-mail. Sistemas computacionais autônomos, como programas de IA, disse ele, “podem criar essas funções de forma independente”.

A decisão de Millett realmente abriu a porta para a admissão da IA ​​no mundo dos direitos autorais – mas apenas quando for usada por autores humanos. O que tornou o caso de Thaler diferente daqueles, escreveu ele, foi sua insistência de que seu bot de IA era “Saulo autor da obra” (grifo dele), “e não se pode negar que se trata de uma máquina e não de um ser humano”.

Isto leva-nos ao segundo caso, que envolvia a questão de saber se o trabalho de um bot de IA deveria ser protegido pelo privilégio advogado-cliente. O juiz federal Jed S. Rakoff, de Nova York, decidiu sucintamente: “A resposta é não”.

Como já escrevi no passado, Rakoff é um daqueles advogados que está perfeitamente consciente do impacto das novas tecnologias na lei. Nos seus artigos ocasionais para a New York Review of Books, ele explorou como algoritmos secretos de IA anularam as condenações de réus criminais (especialmente réus negros), como os advogados de criptomoeda estão subvertendo as leis de fraude existentes e como o uso indevido da neurociência cognitiva levou a condenações baseadas em memórias falsas.

Em outras palavras, Rakoff não é um juiz com quem você deva testar o gelo em uma brincadeira tecnológica.

O caso envolveu Bradley Heppner, que foi condenado por um grande júri federal por desviar US$ 150 milhões de uma empresa de serviços financeiros que dirigia. Heppner se declarou inocente e foi libertado sob fiança de US$ 25 milhões. O caso ainda está pendente.

De acordo com a decisão de Rakoff emitida em 17 de fevereiro, a questão diante dele dizia respeito às trocas que Heppner teve com Claude, o chatbot desenvolvido pela empresa de IA Antrópico, cuja transcrição foi apreendida pelo FBI quando executou um mandado de busca na propriedade de Heppner.

Sabendo que as acusações eram iminentes, Heppner pediu ajuda a Claude com uma estratégia de defesa. Seu advogado argumentou que essas trocas, que foram registradas, equivaliam a consultas com os advogados de Heppner; portanto, disse seu advogado, eles são confidenciais sob o privilégio advogado-cliente e não podem ser usados ​​contra Heppner no tribunal. (Ele também citou o curso de produto de trabalho para advogados, que fornece confidencialidade para notas de advogados e outros materiais semelhantes.)

É uma ideia absurda. Heppner deu a Claude as informações que obteve de seu advogado e compartilhou a resposta de Claude com seu advogado.

Rakoff fez um breve trabalho sobre essa ideia. Primeiro, ele determinou que os documentos da AI não eram comunicações entre Heppner e seu advogado, uma vez que Claude não era advogado. Todos esses benefícios, observou ele, “exigem, entre outras coisas, um ‘relacionamento fiel’” entre um cliente e um profissional licenciado, seguindo regras e obrigações éticas.

“Não existe tal relação, ou pode existir, entre usuários de IA e plataformas como Claude”, destacou Rakoff.

Em segundo lugar, ele escreve que a troca entre Heppner e Claude não era secreta. Em termos de uso, a Anthropic reivindica o direito de coletar as perguntas dos usuários e as respostas de Claude, usá-las para “treinar” Claude e divulgá-las a outras pessoas.

Por fim, não pediu aconselhamento jurídico a Claude, mas sim informações que ele poderia repassar ao seu próprio advogado, ou não. Na verdade, quando os promotores testam Claude perguntando se podem fornecer aconselhamento jurídico, o bot os aconselha a “consultar um bom advogado”.

Na sua decisão, Rakoff fez um esforço para abordar as questões mais amplas que os juízes enfrentam ao lidar com IA. “Apenas três anos após o seu lançamento”, escreve ele, “uma plataforma popular de IA é usada por mais de 800 milhões de pessoas em todo o mundo todas as semanas. Mas o impacto da IA ​​na lei está apenas começando a ser explorado”.

Ele concluiu que a “inteligência artificial generativa” oferece novas fronteiras no diálogo contínuo entre tecnologia e direito….Mas a novidade da IA ​​não significa que a sua utilização seja independente de princípios jurídicos de longa data, como aqueles que regem o privilégio advogado-cliente e a doutrina do produto.”

Neste caso e noutros casos, Rakoff demonstrou uma profunda compreensão das questões tecnológicas. Em seu artigo de 2021 sobre algoritmos de IA que podem enviar pessoas para a prisão, ele explicou por que o termo “inteligência artificial” é um nome impróprio.

O termo, escreve ele, tende a “obscurecer a importância do designer humano… O designer determina que tipo de dados inserir no sistema e de quais fontes extraí-los. O designer determina que peso dar às diferentes entradas e como ajustar o programa a elas.

Ele está certo. Isso torna difícil para os juízes determinar se os engenheiros de IA fornecem informações aos chatbots para fazê-los parecer “criativos” e até mesmo “sentir” que estão infringindo os direitos autorais dessas informações ou criando algo novo.

O problema é que eles estão fazendo as perguntas erradas. Tudo o que um bot de IA produz é, em um nível fundamental, produto da criatividade humana. Os bots de IA são máquinas, e retratá-los como criaturas pensantes, como artistas ou advogados, não muda isso e não deveria.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui