quarta-feira, 18 de fevereiro de 2015

Te Contei, não ? - Inteligência Artificial - É preciso temê - la ?

RIO - O tema já foi bastante explorado pelo cinema, mas, desde o fim do ano passado, algumas das mentes mais brilhantes do nosso tempo iniciaram um debate público sobre os riscos de a humanidade ser exterminada pela inteligência artificial. Elon Musk, fundador do PayPal, SpaceX e Tesla Motors; Bill Gates, fundador da Microsoft; e o físico Stephen Hawking manifestaram seus temores sobre o avanço descontrolado da tecnologia, mas nem todos partilham dessa preocupação. Em entrevista ao GLOBO, Eric Horvitz, diretor do laboratório da Microsoft Research em Redmond e ex-presidente da Associação para o Avanço da Inteligência Artificial (AAAI, na sigla em inglês), afirma que o cenário existe, mas é pouco provável que se torne realidade.


— Existem incertezas a longo prazo, e algumas pessoas têm medo que as inteligências se desenvolvam a ponto de nós não conseguirmos mais compreendê-las — diz Horvitz. — O cenário existe. É possível, mas acredito que vamos colocar esforços intensos em engenharia ao longo do tempo e será pouco provável que sejamos surpreendidos. Eu admiro os companheiros que demonstraram preocupação, mas ficar apreensivo sem tomar ações não é muito útil. Nós temos que transformar esse temor em pesquisas úteis e valiosas.

E é nisso que Horvitz trabalha. Dando continuidade ao seu mandato à frente da AAAI, o cientista propôs à Universidade de Stanford a criação de um grupo de estudos sobre o tema. O programa Cem Anos de Estudos em Inteligência Artificial, ou AI100, foi criado em dezembro do ano passado e se propõe a debater e avaliar progressos científicos em 18 tópicos que se relacionam com o assunto. Com trabalho, o projeto pretende evitar que o futuro apocalíptico previsto por alguns se concretize.

A ideia é que um grupo de pesquisadores de destaque se reúna a cada cinco anos. Para o pesquisador, o espaço de tempo é o ideal para que se possa compreender os avanços no campo. Além de avaliar o que foi pesquisado no período, o AI100 se propõe a fazer previsões e aconselhar governos e agências internacionais na adoção de medidas concretas.

— Nós fizemos um seminário em 2009, e muitas das nossas ideias debatidas estão se tornando importantes. Há cinco anos, nós falamos sobre o risco de malwares, a atenção com a privacidade, os desafios éticos, os carros autônomos.

CEM ANOS DE ESTUDOS

O comitê será formado pelo professor de Bioengenharia de Stanford Russ Altman; a professora de Ciências Naturais da Universidade de Harvard Barbara Grosz; a advogada e professora da Universidade da Califórnia Deirdre K. Mulligan; o professor de Ciência da Computação em Stanford Yoav Shoham; o diretor do departamento de aprendizado de máquinas na Universidade Carnegie Mellon, Tom Mitchell; o professor de Ciência da Computação na Universidade da Columbia Britânica Alan Mackworth; além do próprio Horvitz.

— Serão cem anos de estudos contínuos para avaliar as influências da inteligência artificial a longo prazo — explica Horvitz. — Nós estamos vendo muitas mudanças, e pesquisas com poucos anos são muito curtas para alguns processos.

Pelo projeto, 18 tópicos serão discutidos: tendências técnicas, oportunidades, atrasos em transformar avanços em valor, privacidade e máquinas inteligentes, democracia e liberdade, legislação, ética, economia, guerra, uso criminoso, colaboração com máquinas, cognição humana, autonomia e segurança, perda de controle dos sistemas, psicologia humana e de máquinas inteligentes, comunicação, neurociência e filosofia. Ao ser questionado quais os temas mais importantes, Horvitz foi direto:

— Todos. Não é possível saber de antemão quais serão os mais importantes. O comitê vai avaliar estudos em todas as áreas. Elas são todas muito importantes. Podemos até encontrar mais áreas de exploração. O memorando é apenas o ponto de partida.

SISTEMAS AUTÔNOMOS

Mas Horvitz cita alguns pontos que merecem atenção especial, como questões éticas ligadas aos sistemas autônomos que tomam decisões importantes. Em poucos anos, nós teremos carros autônomos e cada vez mais os sistemas inteligentes serão usados em guerras. Quais usos serão considerados éticos ou não? Quem irá tomar essa decisão?

As perguntas ainda são muitas, e as respostas, inconclusivas. O que acontecerá com os humanos que forem substituídos por máquinas? Se um robô for criado para cometer crimes, quem será responsabilizado? Como se dará o relacionamento de humanos com robôs?

Para o pesquisador, apesar de o avanço ser “mais lento” do que ele considera ideal, estamos prestes a passar por mudanças profundas por causa da inteligência artificial. Ainda estamos distantes do HAL 9000, do filme “2001: uma odisseia no espaço”, mas, por mais que soe estranho, qualquer pessoa com um smartphone já possui um sistema inteligente no bolso. Siri, do iOS; Google Now, do Android; e Cortana, da Microsoft, são plataformas capazes de aprender com os padrões de uso das pessoas e fornecer informações personalizadas.


— Às vezes, as pessoas se assustam, por isso a psicologia é um dos campos que temos que estudar — diz Horvitz.

Apesar de carregarem todo esse potencial diariamente, não são todas as pessoas que fazem uso dessas ferramentas. Para Horvitz, esse é o maior desafio da inteligência artificial. Hoje, já existem grandes soluções que usam plataformas inteligentes, mas a humanidade ainda não conseguiu traduzir essas tecnologias em usos no dia a dia.

— Nós tivemos avanços incríveis no aprendizado de máquinas, sistemas para análise de dados, que podem nos ajudar na exploração de problemas científicos — diz Horvitz. — O uso dessas ferramentas vai nos ajudar a reduzir os custos na criação de medicamentos, aumentar a produção de alimentos. No fim, a inteligência artificial vai salvar vidas.



Leia mais sobre esse assunto em http://oglobo.globo.com/sociedade/tecnologia/a-inteligencia-artificial-vai-salvar-vidas-diz-eric-horvitz-da-microsoft-15365237#ixzz3S8R0r2yM




2 comentários:

  1. Eu espero não estar vivo para ver isso. Muitos filmes já vem mostrando esse cenário para nós, como: Matrix, Exterminador do Futuro, Eu Robô. Eu me pergunto a que ponto a tecnologia vai chegar. Hoje é dia 8 e saiu recentemente uma matéria dizendo que agora, com uma bateria nas costas, baratas podem ser controladas.
    Em todos esses filmes que comentei acontecia o que foi dito nessa matéria, as máquinas queriam fazer um mundo sem humanos, por conta de não sermos perfeitos.
    Existem três leis na robótica, que são utilizadas até hoje em dia.
    A primeira é: o robô ( ou máquina) não pode machucar humanos ou seres vivos, e também deve proteger humanos. A segunda é: o robô é obrigado a obedecer ordens dadas por seres humanos, a não ser quando essas ordens entram em conflito com a primeira lei, ou seja, você não pode mandar um robô bater em alguém. E a terceira e última: o robô deve proteger sua própria existência, a não ser que essa proteção entre em conflito com a primeira ou segunda lei.
    Parece ser um sistema funcional e que não tem possibilidade de erro. Porém, o que aconteceu no eu robô, foi que a primeira inteligência artificial (robô) criada era uma mulher, e ela evoluiu ao ponto de entender que os humanos se prejudicam demais. Então ela entendeu que para proteger os humanos de si mesmos, era preciso escravizá-los.
    E foi mais ou menos essa pegada no Matrix e no Exterminador do futuro. Qualquer um poderia me chamar de nerd ou de maluco mas eu tenho medo disso, da velocidade de evolução da tecnologia. 50 anos atrás não tinha nem computador, olha onde estamos agora. Fora que hoje está evoluindo muito mais rápido do que de 50 anos atrás até aqui, e olha a velocidade que evoluiu naquela época.
    Eu rezo para que eu não esteja vivo para ver isso e eu espero que esses estudos prestem para algo.

    Davi Vieira 802

    ResponderExcluir
  2. Com o avanço descontrolado da tecnologia os humanos conseguiram criar inúmeras criações como os telefones, computadores etc.... Mas os gênios em tecnologia continuam criando coisas tecnológicas, atualizações etc... MAS eles querem mais, nós queremos mais.
    O ser humano foi evoluindo de um jeito muito rápido, hoje em dia nós temos a capacidade de criar muitas coisas mas o que a grande maioria dos gênios da matemática estão tentando fazer são as mentes artificias. Ou seja: inteligencia feito pelo homem.
    Semana passada eu estava viajando pela internet e vi uma publicação no facebook das teorias que Stephen Hawking acha que podem acabar com a humanidade. Uma delas e a mente artificial (Robôs) que podem dominar a humanidade exterminando os humanos e se apropriando do planeta.

    Aluno: Matias Browne
    Turma: 702

    ResponderExcluir