Indagações robóticas

1
C M Y K C M Y K Tecnologia E Ed di it to or ra a: : Ana Paula Macedo [email protected] 3214-1195 • 3214-1172 / fax: 3214-1155 14 CORREIO BRAZILIENSE Brasília, segunda-feira, 19 de maio de 2014 Indagações robóticas Consórcio norte-americano inicia projeto que busca dar às máquinas a capacidade de fazer julgamentos morais e decidir a melhor forma de agir nas mais diversas situações » ROBERTA MACHADO S e você estivesse em um trem descontrolado que fosse atro- pelar cinco pessoas, o que você faria? Tombaria o trem para salvá-las, colocando em risco a vida dos passageiros? E se nos trilhos hou- vesse um desvio que pudesse salvar as cinco pessoas, mas colocasse outro in- divíduo em risco? E se a solução para parar o trem fosse jogar um homem de cima de uma ponte na frente do veícu- lo em alta velocidade? Questionamen- tos como esses são o suficiente para esquentar a cabeça de qualquer pes- soa, mas agora os cientistas querem ir além e submetê-los a um novo tipo de mente: a robótica. Um grupo de pesquisadores norte- americanos vai investir US$ 7,5 mi- lhões e cinco anos de trabalho para ajudar robôs a tomar decisões que às vezes são complicadas até mesmo pa- ra pessoas de carne e osso. O consór- cio entre a Marinha dos EUA, do Insti- tuto Politécnico Rensselaer e das uni- versidades Tufts e Brown aceitou o de- safio de criar um senso de ética artifi- cial e ensinar máquinas a distinguir o certo do errado. “Os robôs atuais são muito limitados na forma de julgar si- tuações, especialmente quando se tra- ta de aspectos éticos. Em casos limita- dos, os robôs podem evitar realizar ações que violariam os princípios que eles seguem, mas essas máqui- nas não têm a habilidade de nenhum tipo de raciocínio moral”, ressalta Matthias Scheutz, professor de ciên- cia da computação na Tufts e princi- pal pesquisador do projeto. O primeiro passo dessa jornada filo- sófico-robótica será compreender me- lhor os valores que compõem a moral humana e determinar como explicá-los na linguagem matemática das máqui- nas. Parte do desafio está no desenvol- vimento de um código moral adequado aos valores de diferentes sociedades e em orientar as máquinas a identificar o momento certo de usar o bom senso. “A ética está cheia de dilemas. Pensar que temos respostas prontas que possam ser pura e simplesmente transmitidas para um robô é algo filosoficamente in- gênuo”, ressalta João de Fernandes Tei- xeira, professor de filosofia da mente e ciência cognitiva na Universidade Fe- deral de São Carlos (UFSCar). Compaixão Um dilema óbvio está no campo de batalha. Os cientistas da Marinha nor- te-americana teriam de encontrar uma solução para o mais óbvio problema ético ao criar robôs militares capazes de colocar pessoas em risco e, ao mes- mo tempo, valorizar a vida de outros. Na opinião de Teixeira, a contradição da ética não existe sem as emoções hu- manas, que também teriam de ser transmitidas aos soldados de lata. “Identificar intenções, crenças e dese- jos nos outros significa atribuir a eles uma mente e, com isso, poder imaginar como eles se sentem em várias situa- ções. Esse é o primeiro passo para o de- senvolvimento da empatia e, com ela, a compaixão, que nada mais significa do que se sentir como os outros provavel- mente estão se sentindo em determi- nado momento”, destaca o especialista. Por isso, a pesquisa vai partir de es- tudos com gente de verdade antes de seguir para a prancheta. Além da filoso- fia, o trabalho multidisciplinar deve in- cluir especialistas da psicologia, da ciência da computação, do direito e da robótica. O grupo também deve contar com a consultoria de especialistas das universidades de Georgetown e Yale. A ideia é que as máquinas possam tomar decisões que não estão previstas na sua programação, permitindo que elas operem com maior autonomia e eficiência em situações dinâmicas de interação com humanos, como traba- lhar num hospital ou dirigir um auto- móvel — funções que, aliás, as máqui- nas já começaram a exercer há algum tempo sem o fardo da responsabilidade moral. Com robôs cuidadores se tor- nando uma realidade e uma frota de carros autônomos próxima de estrear nas ruas, é urgente que os cérebros au- tomatizados estejam preparados para lidar com imprevistos. Os princípios morais dos robôs éticos serão integrados diretamente no siste- ma de controle do robô, impedindo que ele decida deliberadamente agir de for- ma errada — assim como as três leis fic- cionais da robótica de Isaac Asimov. “Os sistemas computacionais em que esta- mos trabalhando serão aptos a realizar um raciocínio moral relativamente so- fisticado em vários tipos de lógicas for- mais”, prevê Matthias Scheutz. Dinâmico Quão real, porém, pode ser o senso ético robótico? Poderá uma máquina que desconhece a dor ignorar sua dire- triz para se preocupar com um idoso em sofrimento físico? Ou o que fará um automóvel autônomo ao ter de esco- lher entre a vida de um pedestre e a de seu passageiro? Luís Moniz Pereira, da Universidade de Nova Lisboa, em Por- tugal, criou um programa que conse- guiu lidar com o dilema do trem descri- to no início da reportagem. No artigo, publicado no Internatio- nal Journal of Reasoning-based Intelli- gent Systems , o pesquisador mostra como adaptou teses de filosofia moral para combiná-las a um programa de lógica computacional. “Não escolhe- mos nenhuma moral específica, antes damos a possibilidade de programar morais diversas e até de combiná-las”, explica. De acordo com o especialista, nunca será possível saber ao certo que tipo de circunstâncias os robôs vão enfrentar, e a crescente autonomia da- da a eles exige esse tipo de pensamen- to dinâmico. “Tais criaturas autônomas, de fabri- cantes diferentes, evoluirão devido à aprendizagem e vão interagir entre si em pequenos e grandes grupos. Estarão também conosco, pelo que precisam de uma moral comum que propicie a coo- peração”, prevê o pesquisador, que vai abordar o tema em seu próximo livro, A máquina iluminada. O cuidado, ressalta o especialista português, deve ser apli- cado a robôs humanoides em sistemas menos familiares, como programas de transações financeiras ou outros que precisem de uma garantia de funciona- mento completamente seguro. E esse não deve ser um trabalho simples, já que o senso ético humano evolui na velocidade da mudança de paradigmas morais e de coexistência. Se o modelo jurídico de individualida- de mudar no mesmo ritmo, é possível até mesmo que as máquinas sejam res- ponsabilizadas por seus atos — mas sem eximir a culpa do fabricante ou do proprietário, dependendo do caso. “Para além da investigação da nossa própria moralidade utilizando compu- tadores, importa muito, e desde já, in- vestigar as novas questões ético-jurídi- cas e o seu suporte filosófico”, ressalta Moniz Pereira. Wendell Wallach, pesquisador do Centro Interdisciplinar de Bioética da Universidade de Yale e autor de Moral machines: Teaching robots right from wrong Qual é o primeiro passo a ser tomado para a criação de uma máquina eticamente autônoma? Estamos criando sistemas com cada vez mais autonomia, então teremos mais situações que não podem ser pre- vistas pelos engenheiros. Valores já são colocados nos sistemas, mas para ações pensadas com antecedência pelo desig- ner. O próximo passo é chegar ao estágio em que haja várias circunstâncias sobre as quais os engenheiros não pensaram, e o algoritmo possibilite à máquina calcu- lar a forma apropriada de agir. Uma máquina seria capaz de ter sentimentos? Humanos são criaturas que evoluí- ram com um sistema emocional quími- co e instintivo. Robôs são sistemas cons- truídos com base em uma plataforma lógica. Mas, de forma fascinante, há pes- quisas sobre se é possível criar algum ti- po de inteligência emocional e afetiva, ou robôs com consciência ou capacida- de de deduzir as intenções e os desejos de outros. Algumas pessoas acreditam que teremos um dia máquinas com consciência, outras dizem que isso não é possível. Mas essa é a ambiguidade e, do ponto de vista filosófico, o fascínio dos robôs, que nos fazem pensar se somos distintamente diferentes do que esta- mos criando ou se algumas capacidades podem ser reproduzidas ou simuladas em uma plataforma robótica. Qual é o principal desafio para criar máquinas com consciência moral? Há dois grandes problemas. Em um nível, escolher um procedimento, ou teo- ria ética, ou processo e implementar isso em um computador. O outro problema é que às vezes nos referimos às coisas com nomes diferentes e há uma questão de perspectiva. Mas o ponto é que há todas essas preocupações secundárias que são essenciais para a tomada de decisões que são alheias ao procedimento. Por exem- plo: como um sistema reconhece que es- tá em uma situação de importância éti- ca? Como ele define se tem a informação necessária para resolver o problema? Que capacidades seriam necessárias pa- ra fazer julgamentos válidos em situa- ções complexas? É algo difícil até para humano, e não sabemos ainda como im- plementar em robôs. Três perguntas para Eu, robô O cientista e escritor Isaac Asimov cunhou as três leis que devem reger a robótica pela primeira vez no conto Runaround e depois as explorou melhor na coletânea de contos Eu, robô. As regras dizem que um robô não deve ferir um ser humano ou deixar que uma pessoa se machuque por omissão; a máquina também deve obedecer às ordens dadas por qualquer humano, a não ser que elas entrem em contradição com a primeira lei; e os robôs também são obrigados a proteger a própria existência, contanto que a tarefa não seja um conflito às primeiras duas leis.

Transcript of Indagações robóticas

  • C M Y KCMYK

    Tecnologia EEddiittoorraa:: Ana Paula [email protected] 3214-1172 / fax: 3214-115514 CORREIO BRAZILIENSE Braslia, segunda-feira, 19 de maio de 2014

    Indagaes robticasConsrcionorte-americano inicia projetoquebuscadarsmquinasa capacidadedefazer julgamentosmorais edecidir amelhor formadeagir nasmaisdiversas situaes

    ROBERTA MACHADO

    S e voc estivesse em um tremdescontrolado que fosse atro-pelar cinco pessoas, o que vocfaria? Tombaria o trem parasalv-las, colocando em risco a vidados passageiros? E se nos trilhos hou-vesse um desvio que pudesse salvar ascinco pessoas, mas colocasse outro in-divduo em risco? E se a soluo paraparar o trem fosse jogar um homem decima de uma ponte na frente do vecu-lo em alta velocidade? Questionamen-tos como esses so o suficiente paraesquentar a cabea de qualquer pes-soa, mas agora os cientistas querem iralm e submet-los a um novo tipo demente: a robtica.

    Um grupo de pesquisadores norte-americanos vai investir US$ 7,5 mi-lhes e cinco anos de trabalho paraajudar robs a tomar decises que svezes so complicadas at mesmo pa-ra pessoas de carne e osso. O consr-cio entre a Marinha dos EUA, do Insti-tuto Politcnico Rensselaer e das uni-versidades Tufts e Brown aceitou o de-safio de criar um senso de tica artifi-cial e ensinar mquinas a distinguir ocerto do errado. Os robs atuais somuito limitados na forma de julgar si-tuaes, especialmente quando se tra-ta de aspectos ticos. Em casos limita-dos, os robs podem evitar realizaraes que violariam os princpiosque eles seguem, mas essas mqui-nas no tm a habilidade de nenhumtipo de raciocnio moral, ressaltaMatthias Scheutz, professor de cin-cia da computao na Tufts e princi-pal pesquisador do projeto.

    O primeiro passo dessa jornada filo-sfico-robtica ser compreender me-lhor os valores que compem a moralhumana e determinar como explic-losna linguagem matemtica das mqui-nas. Parte do desafio est no desenvol-vimento de um cdigo moral adequadoaos valores de diferentes sociedades eem orientar as mquinas a identificar omomento certo de usar o bom senso. Atica est cheia de dilemas. Pensar quetemos respostas prontas que possamser pura e simplesmente transmitidaspara um rob algo filosoficamente in-gnuo, ressalta Joo de Fernandes Tei-xeira, professor de filosofia da mente ecincia cognitiva na Universidade Fe-deral de So Carlos (UFSCar).

    CompaixoUm dilema bvio est no campo de

    batalha. Os cientistas da Marinha nor-te-americana teriam de encontrar umasoluo para o mais bvio problematico ao criar robs militares capazesde colocar pessoas em risco e, ao mes-mo tempo, valorizar a vida de outros.Na opinio de Teixeira, a contradioda tica no existe sem as emoes hu-manas, que tambm teriam de sertransmitidas aos soldados de lata.Identificar intenes, crenas e dese-jos nos outros significa atribuir a elesuma mente e, com isso, poder imaginarcomo eles se sentem em vrias situa-es. Esse o primeiro passo para o de-senvolvimento da empatia e, com ela, acompaixo, que nada mais significa doque se sentir como os outros provavel-mente esto se sentindo em determi-nado momento, destaca o especialista.

    Por isso, a pesquisa vai partir de es-tudos com gente de verdade antes deseguir para a prancheta. Alm da filoso-fia, o trabalho multidisciplinar deve in-cluir especialistas da psicologia, dacincia da computao, do direito e darobtica. O grupo tambm deve contarcom a consultoria de especialistas dasuniversidades de Georgetown eYale.

    A ideia que as mquinas possamtomar decises que no esto previstasna sua programao, permitindo queelas operem com maior autonomia eeficincia em situaes dinmicas deinterao com humanos, como traba-lhar num hospital ou dirigir um auto-mvel funes que, alis, as mqui-nas j comearam a exercer h algumtempo sem o fardo da responsabilidademoral. Com robs cuidadores se tor-nando uma realidade e uma frota decarros autnomos prxima de estrearnas ruas, urgente que os crebros au-tomatizados estejam preparados paralidar com imprevistos.

    Os princpios morais dos robs ticossero integrados diretamente no siste-ma de controle do rob, impedindo queele decida deliberadamente agir de for-ma errada assim como as trs leis fic-cionais da robtica de Isaac Asimov. Ossistemas computacionais em que esta-mos trabalhando sero aptos a realizarum raciocnio moral relativamente so-fisticado em vrios tipos de lgicas for-mais, prev Matthias Scheutz.

    DinmicoQuo real, porm, pode ser o senso

    tico robtico? Poder uma mquinaque desconhece a dor ignorar sua dire-triz para se preocupar com um idosoem sofrimento fsico? Ou o que far umautomvel autnomo ao ter de esco-lher entre a vida de um pedestre e a deseu passageiro? Lus Moniz Pereira, daUniversidade de Nova Lisboa, em Por-tugal, criou um programa que conse-guiu lidar com o dilema do trem descri-to no incio da reportagem.

    No artigo, publicado no Internatio-nal Journal of Reasoning-based Intelli-gent Systems, o pesquisador mostracomo adaptou teses de filosofia moralpara combin-las a um programa delgica computacional. No escolhe-mos nenhuma moral especfica, antesdamos a possibilidade de programarmorais diversas e at de combin-las,explica. De acordo com o especialista,

    nunca ser possvel saber ao certo quetipo de circunstncias os robs voenfrentar, e a crescente autonomia da-da a eles exige esse tipo de pensamen-to dinmico.

    Tais criaturas autnomas, de fabri-cantes diferentes, evoluiro devido aprendizagem e vo interagir entre siem pequenos e grandes grupos. Estarotambm conosco, pelo que precisam deuma moral comum que propicie a coo-perao, prev o pesquisador, que vaiabordar o tema em seu prximo livro, Amquina iluminada. O cuidado, ressaltao especialista portugus, deve ser apli-cado a robs humanoides em sistemasmenos familiares, como programas detransaes financeiras ou outros queprecisem de uma garantia de funciona-mento completamente seguro.

    E esse no deve ser um trabalhosimples, j que o senso tico humanoevolui na velocidade da mudana deparadigmas morais e de coexistncia.Se o modelo jurdico de individualida-de mudar no mesmo ritmo, possvelat mesmo que as mquinas sejam res-ponsabilizadas por seus atos massem eximir a culpa do fabricante ou doproprietrio, dependendo do caso.Para alm da investigao da nossaprpria moralidade utilizando compu-tadores, importa muito, e desde j, in-vestigar as novas questes tico-jurdi-cas e o seu suporte filosfico, ressaltaMoniz Pereira.

    WendellWallach, pesquisador do Centro Interdisciplinar de Biotica da Universidade deYale e autor deMoralmachines: Teaching robots right fromwrong

    Qualoprimeiropassoaser tomadoparaacriaodeumamquinaeticamenteautnoma?

    Estamos criando sistemas com cadavez mais autonomia, ento teremosmais situaes que no podem ser pre-vistas pelos engenheiros.Valores j socolocados nos sistemas, mas para aespensadas com antecedncia pelo desig-ner.Oprximopasso chegar aoestgioem que haja vrias circunstncias sobreasquaisosengenheirosnopensaram,eo algoritmo possibilite mquina calcu-lar a formaapropriadade agir.

    Umamquinaseria capazde ter sentimentos?

    Humanos so criaturas que evolu-ram com um sistema emocional qumi-co e instintivo. Robs so sistemas cons-trudos com base em uma plataformalgica.Mas, de forma fascinante, hpes-quisas sobre se possvel criar algum ti-po de inteligncia emocional e afetiva,ou robs com conscincia ou capacida-de de deduzir as intenes e os desejosde outros. Algumas pessoas acreditamque teremos um dia mquinas comconscincia, outras dizemque issono

    possvel. Mas essa a ambiguidade e, doponto de vista filosfico, o fascnio dosrobs, que nos fazem pensar se somosdistintamente diferentes do que esta-mos criando ou se algumas capacidadespodem ser reproduzidas ou simuladasemumaplataforma robtica.

    Qual oprincipaldesafioparacriarmquinascomconscinciamoral?

    H dois grandes problemas. Em umnvel, escolherumprocedimento,outeo-ria tica, ou processo e implementar issoemumcomputador.Ooutroproblemaque s vezes nos referimos s coisas comnomes diferentes e h uma questo deperspectiva. Mas o ponto que h todasessas preocupaes secundrias que soessenciaisparaa tomadadedecisesqueso alheias ao procedimento. Por exem-plo: comoumsistema reconheceque es-t em uma situao de importncia ti-ca? Como ele define se tem a informaonecessria para resolver o problema?Que capacidades seriam necessrias pa-ra fazer julgamentos vlidos em situa-es complexas? algo difcil at parahumano, eno sabemosaindacomo im-plementar emrobs.

    Trs perguntas para

    Eu, rob

    O cientista e escritor IsaacAsimov cunhou as trs leisque devem reger a robticapela primeira vez no contoRunaround e depois asexplorou melhor nacoletnea de contos Eu,rob. As regras dizem queum rob no deve ferir umser humano ou deixar queuma pessoa se machuquepor omisso; a mquinatambm deve obedecer sordens dadas por qualquerhumano, a no ser que elasentrem em contradio coma primeira lei; e os robstambm so obrigados aproteger a prpriaexistncia, contanto que atarefa no seja um conflitos primeiras duas leis.