Quando A Inteligência Artificial Matar Alguém, Quem É O Responsável? 1

Quando A Inteligência Artificial Matar Alguém, Quem É O Responsável?

Estamos ainda nos anais da inteligência artificial, nos primeiros estágios de uma amplo revolução em que temos de nos acostumarmos a que robôs e materiais automatizados de toda a natureza convivam com a gente. E o que é mais: a levarem a cabo não apenas as tediosas tarefas de que queremos nos livrar, todavia também alguns atos que acreditávamos puramente e exclusivamente humanos.

Não falamos do carinho entre humanos e robôs —tema, por outro lado, muito debatida e com reflexo até mesmo em obras de Hollywood como Her— entretanto do lado mais sombrio do ser humano: a morte e a destruição. Dito dessa maneira soa tremendista, entretanto recapacitemos só um segundo.

Acabamos de assistir à morte da primeira pessoa pelo motivo de um veículo autônomo de Uber, o qual a começar por um ponto de visão estrito, pode ser considerada como um homicídio e, a inteligência artificial do carro, como tua autora.

Mas há bem como ainda mais máquinas em processos industriais que são capazes de causar acidentes fatais em caso de defeito ou negligência. São cenários mais coloridas, entretanto em todos eles se repete o mesmo modelo: um imprevisto —ou isso que desejamos pensar— nos que, se o autor fosse um ser humano, ele seria julgado por homicídio, em diferentes graus.

Mas, o que ocorre quando o autor é um ente abstrato, como a inteligência artificial? Você poderá matar um algoritmo ou o assassino é o que o autor destas linhas de código? No primeiro caso, Existem ocorrências em que se lhe possa permitir matar?

Onde ficam as fronteiras éticas em tudo isso, se é que existem? Existe alguma lei que responda de inteligências artificiais assassinas? O primeiro de tudo é discernir se considerarmos que a inteligência artificial tem perícia ética em si mesma e, então, podes ser responsável pelo suas próprias decisões morais. Conforme avançam paradigmas como o aprendizado automático ou o deep learning, parece mais claro que as IA podem regressar a construir um código de conduta respectivo, além do que lhes foi imposta originalmente pro ser agendadas.

nós Vemos exemplos concretos dessa capacidade em estilos mais leves como os chatbots de Facebook que tiveram que ser desligados pelo motivo de tinham montado a tua própria linguagem, indecifrável pros programadores que lhes haviam dado a vida. E se uma inteligência artificial possa evoluir até possuir uma mente que, de forma proativa, que pretenda matar?

  • 4 Sistemas de bombeamento
  • Também dispõem de um terraço para desfrutar de alguns produtos ‘in situ’
  • Alice: o bot de um banco porteño
  • 362 Eduardo Sacheri
  • 5 Ayano Kōsaka

Pelo menos em hipótese, este ponto é desconsiderado. Essa é a linha vermelha que se precisa acompanhar no projeto, produção e uso de cada tipo de robô ou solução automatizada. Mas isto não diminui em que as máquinas si tenham de executar com a ética humana.

Realmente, o relatório europeu —dirigido pela professora Nathalie Nevejans— exige que cada IA aderir a princípios como a proteção da dignidade da pessoa humana, a privacidade, a autonomia ou a igualdade de acesso. Esta presunção ética é fundamental na hora de aproximar-se o seguinte debate: a responsabilidade penal.