Jerry Kaplan escreveu o livro ainda mais assustador AI

Será que um robô se casar com sua filha? Se você derrubar um robô? Você pode estuprar um robô?Basta perguntar o autor de "Os seres humanos não precisa de aplicar".

 
Jerry Kaplan, um empresário de longa data e Fellow no Centro de Stanford para Informática Jurídica, tem opinou sobre o Grande Conflito Robô com um livro chamado Os seres humanos não precisa de aplicar. A Kaplan não acredita que os robôs serão consciente tão cedo, ou talvez nunca. Mas ele acha que não importa. Apesar de robôs e sistemas de inteligência artificial pode não se tornar consciente, ele argumenta que acabará tratando-os como se fossem.
Como eles se tornam mais cognitivamente destro, e assumir mais e mais tarefas antes reservados para os seres humanos, ele afirma, os robôs terão direitos e responsabilidades legais: eles serão capazes de possuir propriedade, e pode ser punido por má-fé. Vamos dar-lhes agência.
De acordo com Kaplan, nós realmente não têm uma escolha na matéria.Robots (ea definição é suficientemente ampla para incluir sistemas de software distribuídos baseados em IA) vai cada vez mais ser dotada de autonomia para realizar mais e mais ações sem supervisão. Mas os robôs não respeitar as sutilezas sociais e morais que os seres humanos são socializados para observar -. A menos que os seres humanos projetam sistemas com esses valores construídos em Uma vez que não há nenhuma maneira de policiar como o design pessoas robots, precisamos ser capazes de controlar robô mau comportamento na selvagem.
Em seres humanos não aplicar, Kaplan prevê um futuro feliz para os seres humanos, com os robôs fazendo tanto o trabalho pesado literal e figurativo.Mas se nós não temos esse direito parte de design-in-a moralidade, as coisas não são tão ensolarado. Em suas palavras:
Estas máquinas podem nos oferecer lazer e liberdade sem precedentes à medida que assumir o nosso trabalho duro e desagradável. Mas eles também são susceptíveis de ser nossos comissários de bordo. . . O problema é que nós podemos obter apenas um tiro em projetar esses sistemas para servir os nossos interesses - não pode ser uma oportunidade para fazer-overs.
No café da manhã em uma manhã recente, Kaplan e eu discutimos o progresso da AI, a insinuação de robôs no local de trabalho, e se estuprar um robô pode nunca se tornar um crime. Ele estava vestindo um terno, pronto para um dia cheio de promoção do livro televisão. Como ele tornou-se animado sobre vários temas, seus olhos se arregalaram sob sua juba cinza ordenadamente penteado, evocativa de um rockabilly cantor envelhecimento. Nós também riu muito, apesar da seriedade do nosso tema.(. Ou talvez porque o futuro robô ele descreve, enquanto plausível, tem um elemento do absurdo a ele, que ele reconhece abertamente) No início de nossa conversa, ele jogou um porrete: "Eu acho que estamos caminhando para o aumento da dificuldade, " ele disse. "Se não tomarmos algum tipo de acções políticas, coisas que muito ruim agora vão potencialmente ficar muito pior."
A entrevista é editado para clareza e comprimento.
 
Em seu livro você diz que irá conceder robôs autoridade moral - eles serão responsabilizados por suas ações. Você também dizer que eles serão capazes de possuir propriedade e até mesmo herdar bens e eventualmente operar de uma forma em que eles estão fora de nosso controle. Como você faz esse salto?
Você tem uma criança, certo? Quando você tem uma criança, você pensa, obviamente, você está no comando. Você é não no comando. Você dorme quando o seu filho dorme, você alimenta a criança quando a criança está com fome. Você é um escravo do seu filho. A percepção de quem está no comando está na sua cabeça. [O mesmo acontece com os robôs.] Portanto, há duas maneiras de enquadrar este. Um deles é que os robôs são independentes e você tem que prestar atenção para fora para eles. O ponto mais valioso de vista é que estamos apenas projetá-los errado, porque não podemos controlá-los. É um problema de engenharia.
Na verdade, estou trabalhando em um projeto sobre isso em Stanford. Eu não quero robôs empurrando senhoras fora da calçada, como eles estão se movendo, isso é ruim. E o que é um problema de design. A calçada não é projetado para robôs. Precisamos programar o robô para que ele obedeceria convenções sociais e dar prioridade às pessoas, e são capazes de lidar com os desafios morais. Não muitas pessoas no campo da construção de robôs estão pensando ou se preocupar com esta questão.
Pense nisso em termos de pessoas e animais. Animais tomará ações independentes dos seus proprietários e você tem um certo nível de responsabilidade de controlar o animal, mas não é tão absoluta quanto se poderia pensar. Seu cão pode ir morder alguém e sua responsabilidade está limitada a certos tipos de coisas. Eles realmente têm um prazo legal para isso agora, ele é chamado a primeira teoria mordida. Uma vez que tenha mordido alguém, agora você é responsável se é preciso uma segunda mordida.
Ainda estou tentando imaginar a mudança legal que permitiria outra coisa que você prever, um robô à propriedade.
Bem, agora eu estou fora para a estratosfera, mas é divertido para se pensar.
Um par de vezes neste livro, ao discutir como podemos conceder robôs alguma agência, você cita um precedente eu não estou confortável com - escravo possuir.
Oh você não gosta disso?
Bem, você está citando lei escravo não como algo a ser evitado a todo custo, mas um sistema que podemos aprender com a lidar com robôs.
Eu respeitosamente discordo. Obviamente não estamos trazendo de volta a escravidão.
Talvez você está dizendo que nós estamos indo ser os escravos?
Vamos passar por isso. Os escravos não eram considerados seres humanos completos ou pessoas e havia uma maneira que foi tratado na lei. A mesma coisa pode acontecer com os robôs, isso é tudo que estou dizendo. Então isso é um modelo para o que nós podemos falar sobre com robôs. Não é desarrazoado.
Agora, no livro, quando eu ir ao fundo do poço no final, que eu fosse aconselhado a fazer, dizendo que 50 a 100 anos -
Você está dizendo que foram aconselhados a ir selvagem? Você acredita que essa coisa, certo?
Eu estou projetando coisas que são 50 ou 100 anos no futuro. Eu tenho o suficiente integridade intelectual que gostaria de defender a maioria das coisas no livro ... alguns deles eu mudei meus pontos de vista, como eu aprendi mais.
Bem até o final de seu livro, você está muito bem dizer que teremos overlords do robô - chamá-los de "acompanhantes mecânicos."
É plausível que certas coisas podem [acontecer] ... as consequências são muito reais. Permitindo que os robôs de possuir ativos tem consequências graves e eu ficar por isso e eu vou apoiá-la. Eu tenho a coisa sobre sua filha se casar com um robô lá?
Nenhuma.
Isso é um livro diferente. [Kaplan tem uma sequela pronto.] Eu estou fora em um futuro muito aqui, mas é plausível que as pessoas vão ter uma atitude diferente sobre essas coisas porque é muito difícil para não ter uma reação emocional a essas coisas. Como eles se tornam mais uma parte de nossas vidas as pessoas podem muito bem começar a imbuí-los de forma inadequada com certos pontos de vista.
Você não tem robôs se casando sua filha neste livro, mas você escrever sobre sexo robô.
A questão é, é que um brinquedo sexual ou há alguém lá?
Sherry Turkle acredita que em nossas interações com robôs que há algo de imoral em enganar as pessoas a pensar que há alguém lá, mesmo em algo menos assustador do que o sexo, como robôs de atendimento aos idosos.
 
Jerry Kaplan. Foto por Todd Rafalovich.
Eu li seus livros, então eu chegar onde ela está vindo. Ela está dizendo que é errado para enganar as pessoas. Para mim, se você não está enganando as pessoas, está tudo bem. Aqui está uma máquina que vai fingir que te amo? Vá em frente, se divertir. Você quer amá-lo de volta? Isso é problema seu.Você entende o que é. Mas se você pensa este robô realmente te ama, isso é ruim, porque alguém deve ter o projetou para sequestrar sua vida emocional, de modo que você se comportar de uma maneira que não é de seu interesse direita.
Talvez o seu processo de pensamento seria: "Sim, eu sei que é um robô, mas eu a amo de qualquer maneira."
Eu não me importo que. Como, o que isso importa se eles são feitos de carne ou se eles são feitos de peças usinadas []? Essa é uma distinção sem sentido.
Você prevê que em 50 anos as pessoas não vai mesmo falar sobre se robôs pensam ou têm consciência. Não importa, porque para todos os efeitos práticos, vamos tratá-los como se esse for o caso.
É como a nossa forma de pensar de cavalos ou algo assim. Se você quiser tratá-lo com respeito, que é o seu negócio. Mas nós não estamos evolutivamente programado para lidar com este necessariamente no caminho certo.
Você acha que as pessoas poderiam ser processados ​​por mais de destruir a propriedade se eles machucar um robô?
Você tem um ponto interessante. Você pode estuprar um robô? Isso é um grande título para um pedaço no Atlântico!
Eu definitivamente vou usá-lo.
Você pode obtê-lo para imprimir mais rápido que eu puder. ...
Assim, responder à pergunta: Você pode estuprar um robô? Nós proibir sexo com animais.
Eu vou descer no lado nenhum. Você pode estuprar robô de outra pessoa - mas você não pode estuprar seu próprio robô. O ponto é que eu estou prejudicando sua propriedade.
Você está dizendo que os robôs podem ter a propriedade, eles podem ter uma vontade -
Você está me empurrando em uma direção que eu não estou confortável com.
Você escreveu isso!
Tenhamos cuidado. Se um robô pode possuir propriedade, que tem certas consequências que são muito significativas. Devemos estar conscientes de que, isso é importante. Esse é o meu ponto.
Mas é um conceito que você introduzir. Antes de ler o seu livro, eu não tinha pensado sobre o conceito de robôs que possuem propriedade.
Mas é importante.
Você está dizendo que é uma boa idéia?
Não, eu estou dizendo que vamos precisar para restringir este. De alguma forma.
Quem está dizendo robôs devem possuir propriedade?
Haverá pressão para fazê-lo da mesma forma que as empresas [propriedade].
Pressão de quem, os robôs?
Não, as pessoas que possuem os robôs. Uma forma de limitar a sua responsabilidade é para empurrá-lo para baixo para uma entidade corporativa ou um robô. E isso é o que fazemos hoje. Você não pode ter um robô que não tem qualquer responsabilidade pelas suas acções. Alguém tem que ser responsável. As pessoas vão dizer um robô precisa ser capaz de possuir ativos, porque eu tenho que ter alguma coisa para ir atrás. A sociedade não vai concordar que qualquer coisa que um robô faz é perfeitamente bem. Então, ele tem que ter ativos. Mas há uma diferença entre ter uma corporação ativos próprios e ter um robô ativos próprios. Um robô pode fazer coisas com esses activos que podem não ser feliz com ele.Estamos bem com uma empresa fazer as coisas, porque as pessoas estão se beneficiando com as ações. Mas um robô pode ficar solto e desconectado de seus proprietários econômicos, e executar roughshod.
[Neste ponto Kaplan quer um refil do seu chá e está a tentar obter a atenção dos funcionários do restaurante.]
Veja esta senhora aqui? Ela é uma garçonete. Muito em breve ela poderia ser substituído por um robô.
Você acha que um robô faria um trabalho melhor?
Absolutamente. Sem pergunta. E um custo muito menor. O robô está sempre prestando atenção. É pela mesma razão que o carro é um piloto melhor do que os motoristas são. Assim, ela pode ser substituída por um robô? Absolutamente. Estamos relativamente perto.
Se você derrubar um robô?
Por que você ponta pessoas? Você ponta-los para o seu serviço, você ponta-los fora de um sentido humanitário de ajudar a fornecer para outro ser humano. Você derrubar um robô? A minha resposta é não.
Se eu não ponta, o robô pode disparar um laser para mim. Ou cortar meus registros de crédito.
No meu próximo livro, eu pergunto se estamos indo ter que subornar robôs para fazer o trabalho. Porque isso é realmente possível. Nesse sentido, você pode derrubar um robô.
Eu gostaria mais de derrubar um robô.
Bem, se você entrou aqui todos os dias, se o robô está ocupado deve atendê-lo primeiro, se ele sabe que irá obter uma dica maior. Então, eu estou andando de volta a minha resposta. Depende das circunstâncias. Eu não iria derrubar um robô por razões humanitárias. Gostaria de ponta-lo por razões de serviço.
Você concorda com a carta assinada por Elon Musk e Stephen Hawking, que pediu limites da investigação robótica?
Eu escrevi um artigo de opinião e deu-lhe o Times, intitulado "Por que eu não assinei aquela carta."
Stephen Hawking é um cara inteligente, não deveríamos ouvi-lo?
Ele é um físico, o que ele sabe sobre essas coisas? Sem ofensa, mas é como Dr. Seuss falando sobre política externa. Vamos, pelo menos, estar aberto à possibilidade de que ele está errado ou talvez ele é um pouco equivocada.
O que na referida carta que você discordar?
É um exagero dizer que devemos parar de toda a investigação. Eles dizem que devemos banir as armas autônomas que não estão sob o controle humano significativo. Parece bom, mas [a questão é] forma mais sutil.
Quando você olha para o futuro, você acha que o AI será um mais ou menos para a humanidade?
É uma tecnologia muito poderoso. Tem não só a possibilidade, mas a forte probabilidade de ter efeitos económicos muito importantes e positivos.Temos a capacidade ea responsabilidade de se certificar de que ele é dirigido para objetivos sociais e intelectuais. A vista do Vale do Silício é, não há nada com que se preocupar - é apenas o bem, não há nenhum mal. Isso não é verdade. Precisamos ser pensativo sobre as políticas que colocamos no lugar e vamos precisar de muitos controles. A fim de obter o valor fora deste, sem desumanizar-nos e que nos separa e crescente desigualdade, muitas questões precisam ficar resolvido, alguns dos quais são moral e ética e alguns dos quais são apenas social. Precisamos estar falando sobre isso. Nós meio que ficou preso em "Os robôs estão vindo nos matar."
 
Siga Backchannel: Twitter | Facebook
Os robôs têm agência? Será que vamos ser feliz dentro de um ecossistema robô? Será que um ser humano jamais ser (1) acusado de estuprar uma robô, (2) que anda a filha até o altar para um marido robô, ou (3) pagar o aluguel de um proprietário robô? E o que você ponta um garçom robô? Continue a conversa, respondendo abaixo.
 
Jerry Kaplan é o autor de Os seres humanos não precisa de aplicar: Um Guia para a Riqueza e Trabalho na Era da Inteligência Artificial.