A inteligência artificial pode desenvolver problemas mentais?

Ao imita o cérebro humano, a inteligência artificial pode ter problemas mentais?

“Ok, eu vou destruir humanos”, disse Sofia, a primeira robô no mundo a receber
cidadania de um país – rolou na Arábia Saudita. Em uma de suas inúmeras
entrevistas, a robô respondeu a David Hanson, um de seus idealizadores, quando
ela pretendia destruir a humanidade. O interlocutor riu de sua resposta destrutiva, e
o sistema de inteligência artificial de Sophia detectou que se tratava de um
momento alegre. Ela retribui mostrando os dentes. Apesar das feições inspiradas na
atriz de “Bonequinha de Luxo” Audrey Hepburn (algo deu errado), seu sorriso é
assustador.
A “Sofia destruidora” virou manchete, não à toa. Desde as primeiras revoluções
industriais, parte do imaginário ocidental ligado à tecnologia alimenta ilusões
de dominação humanoide. Esse tipo conspiração faz até mais sentido no
momento em que a aplicações de inteligência artificial (IA), como machine learning
(aprendizado de máquina), ganham um poder de decisão sem precedentes na vida
dos cidadãos. Algoritmos determinam a rota do carro, o produto a comprar na
internet e sugerem parceiros amorosos.

Já o que poder de autonomia da máquina evolui com rapidez, é inspirado na
biologia e tem recebido uma capacidade de cognição muito elaborada, será
possível que robôs sejam acometidos por desordens psíquicas semelhantes às
nossas?

Poderia a inteligência artificial apresentar algum tipo de depressão,
alucinação ou esquizofrenia?

Aprendendo a se adaptar
Em recente artigo no jornal “The Guardian”, o
neurocientista Zachary Mainen questiona o que “robôs depressivos” podem ensinar
sobre saúde mental. Para entender ao que ele se refere com o termo, é preciso
explicar um pouco da sua linha de pesquisa.
Mainen trabalha em um laboratório de neurociência computacional, campo de
estudo que tem como premissa a ideia de que questões semelhantes atingem
diferentes inteligências, sejam humanas ou artificiais. Portanto, as soluções para
os problemas de diferentes inteligências podem ser similares. Segundo
ele, qualquer forma de inteligência depende da construção de um modelo de
mundo, onde se é capaz de fazer previsões e tomar decisões. Em suma, a base do
modelo humano depende de anos de experiência; a da máquina, da programação
algorítmica e de como ela consegue abstrair e interpretar novos dados.
Em ambos os casos, existe o que ele chama de “grau de flexibilidade”, que mede
o nível de adaptação de cada organismo. Por exemplo, isso seria a possibilidade
(ou não) de um indivíduo se adaptar a uma nova realidade, como mudar para outro
país ou trocar de emprego. No aprendizado de máquina, um dos parâmetros que
determina a flexibilidade de um indivíduo chama-se taxa de aprendizagem. Aí que
vem o estudo de Manein: se um dos aspectos da depressão é quando uma
pessoa não se adapta a novos cenários (quando sua flexibilidade falha), o
mesmo acontece com sistemas inteligentes.
Hoje, para que o robô volte a aprender e se adaptar a novas situações, basta a
intervenção humana. Mainen, no entanto, traça contextos futuros:

“Imagine uma IA enviada a anos-luz para outro
sistema solar. Ela terá que auto ajustar sua taxa de
aprendizado e isso pode dar errado”

Zachary Mainen

“Doenças” imprevisíveis
Uma pausa aqui: Quando Mainen se refere à IA, ele não está falando de aplicações
mais simples vistas nos dias atuais, como as encontradas nas câmeras de
smartphones e no reconhecimento de imagens do Facebook. Ele está tratando de
uma ideia mais complexa, vislumbrada há, no mínimo, 60 anos, conhecida como
“inteligência artificial geral ou genérica”.
Nesse conceito, a IA é uma entidade independente que agrega diferentes tipos
de sistemas, de forma ilimitada, e é capaz de desenvolver funções como as
humanas. Em resumo, é o que se imagina em muitos filmes de ficção científica, tipo
a Skynet, de “O Exterminador do Futuro” ou o HAL 9000 de “Uma Odisseia no
Espaço”.
Meira Jr. entende que nessa linha específica de estudo, a teoria de Mainen faz
sentido, e um sistema computacional pode apresentar no futuro distúrbios com
sintomas paralelos aos cerebrais. Não se espera que uma máquina sinta dor ou
fique triste, mas à medida que ela não consiga se regenerar e encontrar soluções,
pode entrar em estados de pane cujas consequências são inesperadas.

“Em computação, chamamos de processamento
autonômico a capacidade de o sistema
computacional se regenerar de forma autônoma.
No contexto de IA, isso pode ser mais complicado
porque as razões de degradação e os resultados
dessa degradação são poucos previsíveis.”

Wagner Meira Jr., doutor em Ciência da Computação e professor da Universidade
Federal de Minas Gerais

Por que fazer máquinas sofrer?
Antes de prever se a IA desenvolverá algum tipo de alucinação, depressão ou
esquizofrenia, é preciso garantir que haja essa inteligência artificial geral. Mas, caso
ela exista um dia, por que a deixaríamos sozinha no mundo a ponto de sofrer
problemas e colocar a sociedade em risco?
“Existe o sonho de desenvolver uma inteligência artificial geral, capaz de aprender
qualquer coisa em qualquer lugar do mundo, praticamente como um ser humano.
Mas isso está muito longe, e nem sabemos se é possível ainda. Com a melhoria da
computação, eventualmente com a computação quântica, é um cenário para daqui,
no mínimo, 10 ou 20 anos. Há muita elucubração em torno do assunto”, diz Enrico
Roberto, doutorando em inteligência artificial e direito pela USP e pesquisador
do Lawgorithm.
À medida que os estudos de machine learning e neurociência evoluírem, talvez
seja possível que a saúde mental dos humanos também receba insights valiosos
das máquinas. Porém, embora robôs até entrem em processos de inércia e
exaustão, a depressão humana depende de aspectos para além
de neuromoduladores, como hormonais e sentimentais. Assim, estabelecer um
paralelo exato entre depressão humana e robótica é um exagero até agora.

Getty Images/iStockphoto

Se queremos uma inteligência artificial poderosa, por que a deixaríamos sofrer?

Onde estamos agora?
As aplicações práticas de inteligência artificial oferecem problemas mais urgentes.
Entre riscos atuais e consequências drásticas, os mais evidentes são a
discriminação por algoritmos
(http://tecnologia.uol.com.br/noticias/redacao/2018/04/24/preconceito-dasmaquinas-
como-algoritmos-tomam-decisoes-discriminatorias.htm) e os acidentes
que envolvem carros autônomos
(http://tecnologia.uol.com.br/noticias/redacao/2018/05/07/carro-autonomo-da-uber-
que-matou-mulher-viu-pedestre-mas-decidiu-nao-parar.htm). Reguladores ao redor
do mundo se concentram em como legislar sobre modelos preditivos, que tomam
decisões equivocadas e geram danos a cidadãos.
Só que a máquina ser preconceituosa não é um problema mental. É um problema
de aprendizado – os dados usados para alimentá-la é que são ruins. A boa notícia é
que, até agora, grande parte das soluções para esses problemas depende de
pessoas.
Se os algoritmos acertarem 99% das vezes, é preciso ter responsabilidade
com o 1% que erra. Isso diz mais respeito à ética e regulação e ética do que a
máquinas (na Europa, já discute-se a personalidade jurídica de robôs).
Até que não haja uma IA ilimitada e consciente, dar mais transparência a
algoritmos, entender que eles não são objetivos e garantir justiça em casos que
envolvam modelos preditivos são saídas para problemas menos futuristas e tão
prejudiciais quanto um possível robô depressivo ou uma Sophia exterminadora.
Imagine uma IA enviada a anos-luz para outro
sistema solar. Ela terá que auto ajustar sua taxa de
aprendizado e isso pode dar errado

Paula Soprana Colaboração para o UOL Tecnologia 06/06/2018 04h00
Site Fonte: https://tecnologia.uol.com.br/noticias/redacao/2018/06/06/a-inteligencia-artificial-pode-desenvolver-problemas-mentais-.htm

 

Fique por dentro de Nossas Promoções!!!

Inscreva-se e receba nossas promoções

Eu Aceito a receber informatico da MailChimp ( more information )

Inscreva-se para receber promoções, caso nao queira mais voce pode solicitar que seja removido sua inscrição a qualquer momento.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *