UM ROBÔ PASSOU EM UM CLÁSSICO TESTE DE AUTO-CONSCIÊNCIA PELA PRIMEIRA VEZ. (Comentado)

Um investigador no Ransselaer Polytechnic Institute, nos EUA deu a três robôs não uma versão atualizada do clássico “quebra-cabeça homens sábios” mas um teste de auto-consciência… e um deles conseguiu passar.

No teste clássico, um rei hipotético chama os três homens mais sábios do país e coloca um chapéu branco ou azul na cabeça. Todos podem ver os chapéus uns dos outros, mas não os seus próprios, e não lhes é permitido falar uns com os outros. O rei promete que pelo menos um deles está usando um chapéu azul, e que o concurso é justo, o que significa que nenhum deles tem acesso a qualquer informação que os outros não tenham. Quem é esperto o suficiente para descobrir qual a cor do chapéu que eles usam utilizando essa informação limitada se tornará o novo conselheiro do Rei.

Nesta versão atualizado do AI, os robôs recebem uma “pílula” (que é na verdade uma batida na cabeça, porque, sabe, que os robôs não podem engolir). Duas das pílulas tornarão os robôs silenciosos, e um é um placebo. O testador, Selmer Bringsjord, presidente do departamento de ciência cognitiva de Rensselaer, pergunta aos robôs qual pílula eles receberam.

Há silêncio por um tempo, e então um dos pequenos robôs se levanta e declara: “Eu não sei!” Mas ao som de sua própria voz rapidamente muda de idéia e levanta a mão. “Desculpe, eu sei agora”, exclama educadamente. “Eu fui capaz de provar que a mim não foi dado a porcaria da pílula”.

Você pode ver o teste adorável na filmagem de Motherboard abaixo:

Pode parecer muito simples, mas para robôs, este é um dos testes mais difíceis. Ele não só exige que o AI seja capaz de ouvir e entender uma pergunta, mas também ouvir sua própria voz e reconhecer que ela é distinta dos outros robôs. E, em seguida, ele precisa ligar essa característica de volta para a pergunta original para chegar a uma resposta.

Mas não entre em pânico, isso não é nada perto do tipo de auto-consciência que temos como seres humanos, ou o tipo que as experiências de inteligência artificial da Skynet em  “O Exterminador do Futuro”,  quando decide explodir todos os seres humanos.

Em vez disso, os robôs foram programados para ser auto-consciente em uma situação específica. Mas ainda é um passo importante para a criação de robôs que entendem o seu papel na sociedade, que será crucial para torná-los mais úteis cidadãos. “Nós estamos falando de uma lógica e uma correlação matemática para a auto-consciência, e nós estamos dizendo que estamos a fazer progressos nisso”, Bringsjord disse Jordan Pearson da MotherBoard.

Neste momento, a principal coisa segurando o AI a voltar a ter verdadeiramente um auto-conhecimento é o fato de que eles simplesmente não pode triturar dados, tanto quanto o cérebro humano, disse Hal Hodson ao New Scientist Mesmo que as câmeras possam capturar mais dados que um olho humano, roboticistas estão penando um meio de como unir todas essas informações em conjunto para construir uma imagem coesa do mundo”, diz ele.

Ainda assim, isso não significa que não precisamos ter cuidado ao criar um AI mais inteligente. Porque, realmente, se podemos programar uma máquina para ter o equivalente matemático de desejos e necessidades, o que vai impedi-lo de decidir fazer coisas ruins?

“Esta é uma questão fundamental que espero que as pessoas estão cada vez mais compreensão sobre máquinas perigosas”, disse Bringsjord. “Todas as estruturas e todos os processos, informalmente falando, que estão associados com a realização de ações maliciosas poderiam estar presentes no robô”.

Bringsjord em sua pesquisa na conferência RO-MAN IEEE no Japão, focou-se em “interações com robôs socialmente enraizados”.

Ah, e no caso de você estar se perguntando, a resposta para o teste original do rei e os “homens sábios” é que a todos os participantes devem ter sido dados chapéis azuis, caso contrário, não teria sido um concurso justo. Ou, pelo menos, essa é uma das soluções.

Fonte: Science Alert

.

Comentários internos

O texto um teste para constatar se uma determinada máquina consegue compreender significado. Testes como este visam constatar o potencial de inteligência artificial desenvolvido em algum dispositivo que processa dados, mas que eventualmente possa alcançar um certo grau de autonomia de pensamento, consciência e primordialmente, de significado. Refere-se então a um teste de Turing.

O teste tem como função mostrar como máquinas e seres humanos poderiam se comunicar sem que homem percebesse que estaria, de fato, conversando com uma máquina (dado o grau de sofisticação de sua inteligência artificial).

David, o robô com inteligência artificial e chip para emoções do filme "AI". Momento em que David descobre que é apenas mais um robô de uma série.

David, o robô com inteligência artificial e chip para emoções do filme “AI“. Acima, o momento em que David descobre que é apenas mais um robô de uma série.

Alan Turing é considerado o pai dos computadores. Ele queria descobrir como a mente humana podia resolver equações matemáticas. Turing começou a dar vida á ideia de mecanismos e máquinas de pensar de filósofos como René Descartes e Leibniz já discutirem isto séculos antes. Descartes se ocupou questionando a possibilidade de criar autômatos (atualmente chamados de robôs) ou mecanismos rudimentares movidos a cordas (na época o cérebro era comparado a um sistema mecânico-hidráulico) que imitassem comportamentos humanos. Descartes construiu seu próprio autômato (chamado de Francine) com uma forma humana. Apesar disto, para Descartes, um robô consciente era impensável, pois suscitaria apenas um horror metafísico. Descartes escreveu em uma carta ao marquês de NewCastle em 23 de novembro de 1646 declarando que a duplicação de características materiais e funcionais de um ser humano poderia ser uma condição necessária, mas insuficiente, para replicar avida mental humana. Para Descartes, um autômato bem construído seria nada mais do que uma obra de engenharia, pois nunca teria uma alma, concedida por Deus.

A ideia por trás do autômato de Turing era criar um dispositivo virtual, cujo funcionamento não dependesse de qualquer base material específica. As linguagens humanas são exemplos disto, pois as palavras representadas por sons ou símbolos representados em uma folha e que podem ser apresentados em uma tela virtualmente.

A ideia de Turing girava em torno de um dispositivo com uma fita imaginária infinita, dividida em quadrados iguais com os números 1 e 0 em cada um deles. A máquina, então, apenas indentifica o sinal marcado em cada um dos quadrados, um por vez, e entre eles não há nenhum estado intermediário. A mesma ideia estava presente no dualismo mente-cérebro de Descartes, onde não há intermediário entre o cérebro gerando a mente.

Para o filosofo, o mediador “mágico” desta façanha era a glândula pineal, que sabidamente hoje tem um papel fisiológico claramente descrito e não-correspondente a ideia de Descartes. Entretanto, a relação entre Descartes e Turing para a produção do computador e inteligência artificial se mantem.

No mecanismo de Turing, havia também uma tabela de instruções, com um programa passo-a-passo identificado por um número que especifica o seguinte. A atuação da maquina de Turing depende de qual algarismo esta no quadrado, 0 ou 1. As instruções determinam se a fita deve se mover para a esquerda ou direita em relação ao mecanismo de identificação, e se nela deve ser escrito ou apagado os algarismos 0 e 1. Este mecanismo é chamado de código binário presente dentro dos atuais computadores.

Como o número de instruções é finito, significa que quando elas são processadas a máquina deve parar em algum momento indicando a solução de algum problema, e portanto, executou com sucesso um algorítmico (um método passo-a-passo para resolver um problema). Caso a máquina não pare, indica que o problema não tem solução algorítmica, ou que (para Turing) o problema não tem solução.

Por ser um sistema binário, não há pulsos intermediários e tanto a máquina de Turing quanto os computadores funcionam com estados discretos e não-contínuos exatamente na mesma concepção de tempo de Descartes. No universo digital o tempo é uma sequencia de passos que pode ser representada por números e a passagem de um número a outro se dá por pequenos passos, mas sem intermediários. Este mecanismo de tempo discreto e não-contínuos é a base das operações mentais humanas, uma janela para o mundo digital.

A ideia de Turing e seu funcionamento esta por trás dos estudos de inteligência artificial e a busca por um sistema que busque a singularidade, ou seja, concretizar um sistema de operações mentais emulados em uma máquina que seja proporcional ou superior a mente humana. Sendo isto alcançado (como uma máquina ganha autonomia, portanto autômato), como saberemos se estamos diante de uma máquina pensante e tão inteligente (ou consciente) quanto o ser humano? Qual o critério para determinar se uma maquina pensa? Seria possível uma máquina fazer tudo o que um ser humano faz, mas nem por isto seria possível dizer que ela e consciente?

Turing elaborou uma estratégia para descobrir se um autômato poderia ser considerado um ser pensante antes dele desvendar a própria natureza do próprio pensamento. A ideia era estar a frente das máquinas para não ser superado por sua autonomia, singularidade e superinteligência.

Alan Turing (1912 - 1954)

Alan Turing (1912 – 1954)

O teste consiste em princípio básico: uma máquina pensa quando não podemos distinguir seu comportamento do de um ser humano.

Atualmente, há várias máquinas que passam no teste de Turing, e pelo que vimos acima, células sintéticas também. Um dos testes de Turing – feito atualmente – consistia em pedir a uma plateia que determinasse qual, dentre três peças musicais, havia sido elaborada por um computador e qual tinha sido escrita pelo famoso Johann Sebastian Bach, há séculos. O teste realizado na Universidade de Oregon em 1997 mostrou que a plateia escolheu a peça musical do computador como se tivesse sido escrita por Bach. A música feita pelo computador foi elaborada pelo programa E.M.I que é responsável por compor músicas. Este programa recebe uma informação musical de algum estilo de música ou de algum compositor, e gera um estimulo musical próprio, intermediário que combina diferenças com originalidade que iguala a de um ser humano.

Neste sentido, observando somente uma característica, o teste de Turing seria impreciso. Como um refinamento do teste, para saber se um computador pensa, bastaria conversar com ele por um determinado período de tempo, por meio de um teclado e ao final, se não for possível descobrir se o interlocutor era uma máquina ou algum ser humano ligado em rede poderíamos afirmar que a máquina pensa. Turing então estabeleceu o Jogo da Imitação.

A ideia central é que há 3 jogadores: Uma mulher (A), um homem (B) e um interrogador (C) que pode ser de qualquer sexo. O interrogador fica em um quarto separado e seu objetivo é identificar o sexo de cada um desses indivíduos, A e B. Por estar isolado em um quarto, ele reconhece os indivíduos como X e Y porque não tem contato visual. No final do jogo ele deve dizer se o indivíduo X e Y é homem ou mulher. Para determinar o sexo de X e Y o interrogador deve formular um questionário cujas perguntas devam ser capciosas, uma vez que X e Y podem mentir em suas respostas. A ideia é questionar os indivíduos, pega-los em suas contradições e mentiras.

Se um dos indivíduos na qual se esta jogando for uma máquina com grande inteligência artificial pode ser impossível ao interlocutor descobrir que estava jogando com uma máquina, e acreditar que se tratava de um ser humano.

Em 2014 um teste deste tipo foi feito com um júri e conseguiu convencer 33% dos jurados. Embora o percentual seja insuficiente por ser baixo, passou parcialmente pelo teste de Turing. A ideia por trás deste critério tem como base a linguagem e remonta Descartes, porque o filosofo não acreditava que autômatos poderiam algum dia falar com um ser humano. A ideia de Turing, é que se uma máquina puder conversar, ela deverá ter uma mente. Mas detectar uma mente não significa necessariamente saber também que ela é produzida por uma máquina.

Contrariamente ao que Turing supõem, não é um dialogo perfeito mantido até o final o fator decisivo para o sucesso do teste, mas justamente o contrário. A possibilidade de interromper o jogo e revelar a identidade artificial de um dos participantes é que é o objetivo. Uma mente artificialmente competente agirá de forma emulada semelhante a capacidade de consciência e geração de significado. Esta é a grande questão-chave da tecnologia e inteligência artificial.

Um ator que decorou o texto de um script não esta agindo conscientemente ou dialogando. Ele esta apenas replicando um roteiro, e não esta consciente do significado do conteúdo dito. Portanto, o teste se finda na ideia de que se a linguagem é sempre entremeada pela consciência e inteligência (como escapar das perguntas capciosas e mentir) então até que ponto não-descobrir que estamos dialogando com um computador vai indicar uma mente artificial inteligente e consciente?

Quarto Chinês

Quarto Chinês

A ideia é diferenciar uma mente artificial pensante e consciente genuína, de um sistema de roteiro semelhante ao de atores é descrita no dilema do quarto chinês. Um computador processa informação sem saber o que esta fazendo, por isto, tal processamento é feito as cegas. Um computador que possa passar no teste de Turing, mas não compreende nada do que faz, não sabe o significado do que esta fazendo. Esta é a linha de raciocínio que esta inserida neste dilema. Em tal dilema, manipula-se símbolos sem qualquer consciência, pois o interlocutor não sabe falar chinês, apenas decodifica um sistema de perguntas e respostas, sem consciência ou estados intencionais. Diferente da linguagem humana em que o significado é adquirido pelo através de símbolos linguísticos e estados mentais intencionais que os direciona para fora da mente e transforma a linguagem em um significado poderoso. A linguagem é a representação de estados mentais, representações e em nada parece se assemelhar a código binário 0 e 1 de computadores digitais. Ela não combina representações por meio de regras, ela se estabelece do uso se faz das palavras e das proposições.

Se um computador não tem a capacidade de desenvolver a ideia de significado, que parece ser uma propriedade de seres vivos, sua inteligência artificial será automaticamente limitada. Uma pianola apenas replica uma canção, ela não entende o significado do que esta sendo tocado.

A neurociência passa pelo mesmo problema do quarto chinês no sistema binário. Como neurônios, que são meros elementos que compõem o sistema nervoso erguem um sistema como a mente? Como o pensamento emerge de um conjunto de sinais elétricos? E como explicar a diversidade de formas de pensamento a partir de simples sinais elétricos?

Este hiato explicativo é a ausência de explicação da nossa mente por um mecanismo neurológico, ou, em analogia, como explicar o software (mente), emergindo do hardware (cérebro/neurônios). Parece ser preciso algo mais para explicar como a mente e o pensamento erguem-se sobre uma massa cerebral, que sem dúvida é fundamental, mas é insuficiente para explicar a mente humana ou mesmo nossa consciência. Por exemplo, quando ouvimos uma determinada sentença em nosso idioma, conjuntos de atividades elétricas e neuronais ocorrem em nosso cérebro, mas isto não implica que ela esteja sendo aprendida. Um mesmo grupo de neurônios pode ser ativado quando há compreensão e quando não há compreensão do discurso ouvido.

Esta dificuldade que a neurociência esta tentando vencer nada mais é do que uma versão do dilema do quarto chinês porque a identificação de correlatos neurais da linguagem não os torna especiais em relação do interlocutor dentro do quarto.

Assim, para que uma palavra de nosso idioma seja compreendida, ela precisa ter um significado. Então, será que a manipulação de dados como faz um interlocutor em um quadro chinês, ou PC conseguem gerar significado? Aqui entra a inteligência artificial e a busca da singularidade.

O que o argumento do quarto chinês indica é que para que haja significado é preciso consciência, e portanto, a impossibilidade de existir mentes sem um cérebro biológico. Na neurociência, a matéria viva do cérebro é quem produz a consciência, e portanto, intencionalidade e significado, sugerindo um abismo intransponível entre humanos e máquinas. Uma solução, proposta por transhumanistas é associação entre a consciência humana e sua capacidade de gerar significado ligado a máquinas que potencializam a inteligência humana. Assim, haveria 3 possibilidades neste contexto: nada aconteceria e a ligação entre cérebro humano e máquinas seria perfeita; havia redução gradual da consciência humana na qual neurônios seriam substituídos por chips; ou, a extinção de comportamentos sem que a consciência seja perdida. De qualquer forma, a consciência humana será necessária, pois ela é quem gera significado. Neste sentido, um autômato que produz sentenças mas que não possui consciência (e descrever o funcionamento da consciência não é o mesmo que explica-la) não esta gerando significado, pois a fala esta ligada a produção deste significado via consciência. Neste caso, tal autômato seria apenas um papagaio ou um interlocutor no quarto.

O quarto chinês também coloca uma pedra no sapato da singularidade para a inteligência artificial, pois sem solucionar o problema do significado e consciência, como poderíamos apresentar uma representação formal de um cérebro em um software? Simular um cérebro humano não é replica-lo, e sim imita-lo em certos aspectos idiossincráticos. Ao que tudo indica, se a intencionalidade e a consciência são algo inerente a vida, sem um ser vivo não haveria possibilidade de tal singularidade, pois não há geração de significado. Nossas máquinas, hardwares e softwares são simples e limitados para emular com precisão milhões e milhões de anos de evolução que culminou em um órgão como o do ser humano, capaz de emergir um sistema de significado, consciência, mente e linguagem a partir da regra da eliminação dos erros e propagação dos acertos – a evolução biológica.

Historicamente, os estudos de inteligência artificial deram uma reduzida na década de 90 devido a explosão de pesquisas em neurociência, e a ideia de construir máquinas capazes de fazer operações de forma hábil, como as dos seres humanos (e até melhor que nós) ainda não cumpriu suas promessas mesmo depois do desenvolvimento dos computadores e da própria neurociência. A emulação mental ainda não é uma realidade porque computadores ainda seguem cegamente instruções estabelecidas por um programador.

A singularidade é um termo que se originou na ficção científica em 1983 na publicação do livro “First Word” do autor Vernor Vinge embora a popularização do termo tenha ocorrido somente em 1999 com o livro “A era das maquinas” de Ray Kurzweil.

A ideia defendida por este autor é que a singularidade é um fenômeno inevitável, e que ocorrerá exceto se a humanidade, antes de desenvolve-la, entrar em uma guerra nuclear: embora guerras tendam a impulsionar a indústria e a tecnologia para fins bélicos e eventualmente desenvolver soldados tecnológicos. Apesar disto surgir de um discurso de ficção científica, muitas vezes a ficção se mistura com a realidade e muito do que foi visto primeiramente como ficção hoje é uma realidade em nossas vidas. O exemplo mais claro é o celular e a televisão.

O robô Pepper (de 120 centímetros de altura), da empresa Softbank, é o primeiro fabricado em série capaz de se comunicar com pessoas e interpretar suas emoções (Foto: Getty Images)

O robô Pepper (de 120 centímetros de altura), da empresa Softbank, é o primeiro fabricado em série capaz de se comunicar com pessoas e interpretar suas emoções (Foto: Getty Images)

Meu bisavô ria quando diziam que a humanidade, algum dia, poderia ver o mundo a partir de uma caixa que reproduzia e mostrava outros lugares do mundo e a realidade de outras pessoas. Hoje temos a televisão, que começou com a grande, pesada e valvulada caixa de madeira, passou pela telefunken – na qual precisava-se esperar a válvula aquecer para aparecer a imagem – e hoje temos Smart Tvs 4K com acesso a internet e espessura de milímetros em alta resolução, em um pouco mais de 100 anos de história da televisão.

Curiosamente, a Lei de Moore parece fazer bastante sentido: a ideia de que o número de transistores que pode caber em um chip dobra a cada 18 meses. Atualmente já se substitui transistores por nanotubos e vivemos a era do computador com armazenamento quântico de informações, como investe a empresa Google. A ideia central da computação quântica está nos qubits, que podem assumir mais de um valor ao mesmo tempo o que torna o processo de computação normal inferior. A explicação está no conceito de sobreposição quântica, quando um bit pode guardar valores de 0 e 1, do código binário, ao mesmo tempo.

Com o aumento da capacidade de processamento de informações, a qualidade e quantidade delas muda dentro de um dispositivo e pode ser a base de toda construção da inteligência artificial. A ideia central é que computadores deste nível (ou maior) possam emular o raciocínio humano com combinações e recombinações de informações como em um computador.

A ideia de criar núcleos dentro de processadores de computador também tem a ver com a emulação de nosso sistema nervoso.

Nosso sistema nervoso lida com diversas conexões e fibras neurológicas e processa diversas informações ao mesmo tempo, discrimina e filtra o que é útil lançando a informação via elétrica entre diversos centros nervosos. Computadores usam diversos núcleos dentro de seus processadores permitindo que diversas tarefas (ainda que muito limitadas) sejam realizadas simultaneamente, mas nada comparado ao nosso cérebro. Seus núcleos são inferiores aos nossos. Mas a velocidade de transmissão de informação e processamento em computadores é maior que em seres humanos.

A ideia é que no futuro, superinteligências sejam capazes de emular nosso sistema nervoso, e talvez até ser conectado em rede, dando a ideia (ainda que em ficção científica) de estabelecer nossa mente dentro de um sistema que não seja mais biológico, tornando o homem uma máquina espiritual, como uma criogênese digital.

Obviamente, todo este processo parece ser gradual. Em um primeiro estágio a inteligência artificial alcança o nível da inteligência humana, que é a singularidade: no segundo estágio ela se torna superior a inteligência humana; e no estágio final ela se torna uma superinteligência, gerando copias de seus hardwares usando pouca matéria-prima e se organizando em nano-fabricas para se replicar.

Em algumas ocasiões o segundo estágio já aparece em determinadas situações, como o uso de algoritmos genéticos.

Em certas máquinas, o programador descreve certos problemas e o computadores estabelece um conjunto de soluções algorítmicas possíveis, conservando as mais prováveis e rejeitando as mais improváveis. Ao mesmo tempo que soluções são geradas a partir destes algoritmos, também são produzidas solução aleatórias que se assemelham a mutações para que sejam sujeitas a processos de seleção. Com isto, problemas que já haviam sido solucionados anteriormente podem futuramente ser reapresentados a novos algoritmos e gerar novas soluções, criando um processo de programação inteligente. Futuramente a ideia é que certas máquinas vão parecer ter livre-arbítrio e trataremos ela como consciente. De fato, já existe um carisma muito grande pelos robozinhos apresentados no texto acima. A ideia é que com uma forma mais humana a relação homem máquina seja mais afetuosa. Uma série de questões são levantadas neste contexto.

Se eventualmente máquinas alcançarem o grau de autonomia e inteligência tal qual os seres humanos, seríamos capazes de considerarmo-nos os únicos agentes morais do planeta? (embora a base da moralidade seja compartilhada entre primatas como demonstrado em experimentos de primatologistas). Sendo a singularidade equiparada a inteligência humana, seria ela dissociável a consciência? Para Kurzweil a ideia de consciência e livre-arbítrio é uma herança cultura (embora esta ideia seja bastante criticada). Em caso de dano a vida humana, quem será responsabilizado, o robô ou o fabricante? E um robô, autônomo, que seja destruído por um humano será visto um caso de assassinato? Quais direitos e deveres civis máquinas e humanos terão? Em que medida as relações morais e éticas mediarão a relação Homo sapiens autômatos? A criação de máquinas autônomas, pensadores artificiais, com sentimentos compreensão, inteligência, significado e consciência emuladas diluirão os limites da definição do ser humano? Se uma máquina é capaz de imitar um ser humano, então, o que é ser humano? Com o desenvolvimento da inteligência artificial a reflexão ficara a carga de máquinas como pressupôs o filosofo Heidegger?

Filosoficamente, o homem é um animal indefinido que imita os outros animais a partir de invenções, na qual Aristoteles chamou de mimésis. Ao desenvolver droides (ser orgânico modificado), robôs (ser inorgânico) e ciborgues (cérebros expandidos) que não nascem e não morrem, até que ponto esses novos seres ameaçam nossa identidade como espécie? Se uma superinteligência gerada pela inteligência artificial for capaz de produzir supertecnologias para nós, como seres definidos?

Geminoid TMF

Geminoid TMF

De qualquer forma, tudo indica que para que todas estas potencialidades sejam alcançadas, o problema mente-cérebro (cisão entre o mental e o físico) precisa ser solucionado, ou talvez será solucionado no desenvolvimento da inteligência artificial. De qualquer forma, ao mesmo tempo que este tipo de tecnologia é sedutora e interessante, é preciso ser acompanhada destas reflexões, pois tal caminho leva a riscos. Devemos lembrar que a ideia de uma inteligência superior nem sempre vem acompanhada de boas intenções. Nossa competência cognitiva nos levou a sair da Africa e colonizar o resto do mundo. Ao mesmo tempo, contribuiu para a extinção de Neandertais, e atualmente continuamos contribuindo para a extinção de diversas espécies.

A questão então é: será que a internalização de princípios éticos em superinteligências é uma forma eficiente de encontrar um ponto cego na crescente escalada da inteligência artificial? O uso de emoções emuladas pode barrar as atividades desta inteligência artificial? Seria uma máquina capaz de burlar tal sistema? Transhumanistas argumentam que máquinas que emulam nossa inteligência e competências cognitivas seriam capazes do desenvolvimento da ética, mas não há indicativo algum de que tais comandos seriam seguidos, ou porque eles deveriam segui-los.

Uma das formas de tentar limitar as atividades de uma máquina foi dada pelo grande escritor de ficção científica Isaac Asimov quando descreveu as três leis da robótica e que foi tema até do filme “Eu, Robô” com o brilhante ator (que era um ciborgue, com um braço mecânico) Will Smith. Neste filme, as três leis são descritas:

1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Mas mesmo assim em ocasiões excepcionais elas podem falhar. Um robô utilizado em cirurgia certamente não cumpriria seu papel ao ser determinado que abra um corte no paciente usando um bisturi. Ele não pode devido a primeira lei da robótica.

Um robô falharia em cumprir a segunda lei caso algum defeito (ação de substâncias ou vírus) afete seu mecanismo e impeça-o de responder a comandos humanos (2 Lei) e proteger sua própria existência (3 Lei). O robô entraria em conflito de leis.

E claro, robôs programados para responder a estas leis não poderiam ser utilizados como soldados de guerra, pois robôs são construídos para salvaguarda vidas e um robô soldado para eliminar vidas. O processo de discriminar qual ser humano deve ser poupado e qual deve ser eliminado em um conflito cairia na subjetividade.

Outra possibilidade é o uso da inteligência artificial para recombinar nossos genes e guiar mutações genéticas usando engenharia genética. Neste sentido, a proposta da inteligência artificial não é replicar a natureza, mas apropriar-se dela e dar continuidade a evolução biológica, não como biológica, mas através de robôs e ciborgues, em um nível arriscado e interessante que ainda se confunde com a ficção, mas que precisa ser cogitado e pensado sob a luz da bioética e da roboética. Todo este conteúdo bioético precisa ser sempre re-pensado, pois não mudará somente a natureza da tecnologia mas nossa própria natureza, primata, podendo descaracterizar nossa própria noção como espécie caso este potencial saia do plano da ficção e comece a tornar-se realidade.

Victor Rossetti

Palavras chave: NetNature, Rossetti, Inteligência Artificial, Singularidade, Filosofia da Mente, Linguagem, Quarto Chines, Alan Turing, Ficção Científica, Descartes, Droide, Ciborgue, Robótica, Ética, Bioética, Roboética.

.

Referências

Teixeira, J. F. O Cérebro e o Robô – Inteligência artificial, Biotecnologia e a Nova Ética. Ed. Paulus. 2015.
Anúncios

One thought on “UM ROBÔ PASSOU EM UM CLÁSSICO TESTE DE AUTO-CONSCIÊNCIA PELA PRIMEIRA VEZ. (Comentado)

  1. “Um robô utilizado em cirurgia certamente não cumpriria seu papel ao ser determinado que abra um corte no paciente usando um bisturi. Ele não pode devido a primeira lei da robótica.”
    Discordo, isto depende da quantidade de informação que o robô teria de anatomia humana e cirurgias em geral. Se ele inferisse que o paciente morreria se não fosse operado então a própria lei 1 o OBRIGARIA a abrir o paciente e realizar a cirurgia, já que ele não poderia, por inação (NÃO abrir o paciente com o bisturi) permitir que o paciente sofra algum mal.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s