“Inteligência artificial – desafios e oportunidades de uma realidade emergente” foi o tema da Conferência do Centro Académico Clínico do Porto (CAC Porto) do mês de abril, que decorreu na Aula Magna da Faculdade de Medicina da Universidade do Porto (FMUP).
Maria Matos Graça, do Instituto de Filosofia e Faculdade de Ciências da Universidade do Porto (FCUP), falou para uma plateia em que se incluíam Altamiro da Costa Pereira, diretor da FMUP, Francisco Cruz, subdiretor da FMUP, e António Sarmento, professor da FMUP e um dos principais dinamizadores desta iniciativa, bem como outros professores desta instituição e profissionais do Centro Hospitalar Universitário de São João.
Cruzando questões técnicas com desafios éticos e filosóficos, a conferencista fez uma reflexão sobre a evolução da inteligência artificial ao longo das últimas décadas, desde o Dartmouth Summer Research Project, que juntou, em 1956, algumas das mentes brilhantes nas áreas da cognição e da computação, naquele que terá sido o nascimento do sonho, hoje tornado realidade.
Do sonho ao pesadelo vai, no entanto, um passo. Foi com uma citação de Victor Frankenstein, protagonista do livro escrito por Mary Shelley em 1818, que a oradora sintetizou o espanto e o medo que a inteligência artificial (IA) suscita. “Está a funcionar na minha alma algo que eu não compreendo”, dizia o cientista ficcional e dizem muitas das pessoas assombradas pela “sensação de falta de controlo” e pelo “risco de autonomização de uma IA superlativa, máxima”.
Em termos éticos, Maria Matos Graça confessa ter um “arrepio na alma” perante a IA, que descreveu como “uma imitação do nosso cérebro que já nos saiu das mãos”, uma “caixa negra”. Várias e celebrados filmes de ficção científica, como 2001 – Odisseia no Espaço e Star Trek, mostram, de resto, o que pode acontecer quando a IA foge ao controlo do ser humano, virando-se contra ele, sendo mesmo representada com uns “olhos vermelhos” que transmitem a ideia de “malignidade”.
Como sublinhou, a IA é como “um animal de circo bem treinado”. Só que este usa “grandes volumes de dados” para crescer e “adquirir novas competências”, num processo que comparou com a construção de uma “catedral de tijolos” em que cada tijolo é uma unidade mínima de informação.
Seja qual for a melhor metáfora para descrever a IA, o certo é que a sua utilização tem “crescido de forma extraordinária”, desafiando todas as regras ou crenças estabelecidas, incluindo a da inferioridade da máquina, como demonstrou, em 1996, a vitória do “deep blue” sobre o campeão mundial de xadrez Garry Kasparov.
Hoje, observou a oradora, a IA está presente e é útil nas mais diversas atividades do nosso quotidiano, mas, tal como o ser humano, também há situações em que alucina, tem “surtos psicóticos”. Outras vezes, a IA é como “uma criança prodígio” que não sabe como são as próprias mãos.
“A IA é uma rede neuronal treinada para produzir linguagem e pensamento com sentido, com alguma margem de criatividade”, é “tecido reflexional” com “capacidade de aprender sempre com novos exemplos”, sendo que “quanto maior for o afinamento da rede, mais a IA aprende, menos erra, menos alucina”, disse. Mas quanto mais evolui, maior é também a sua capacidade para enganar. Desde artigos científicos falsos na Pubmed a imagens “deep fake” como uma fotografia de Donald Trump com atores negros de Hollywood, há muitos exemplos de que “é muito fácil forjar informação e imagens aparentemente verdadeiras e mostrá-las ao público”. São, como realçou, “pequenas malandrices” que podem ter “graves consequências”.
Maria Matos Graça perguntou, em direto, ao ChatGPT quais poderão ser as consequências da IA e ele respondeu: “A IA pode facilmente fazer proliferar a desinformação, criar novos dilemas, fazer emergir novos poderes, colocar em causa a estabilidade laboral, social e familiar”, salientou. De facto, “há muitos jovens a apaixonarem-se por figuras que não existem, pessoas virtuais”. Mas os efeitos da IA incluem igualmente a personalização e a melhoria dos cuidados de saúde à escala global. Um verdadeiro “pau de dois bicos”. E ainda não chegámos à dita IA superlativa, que Elon Musk prevê já para 2029.
Para a conferencista, “a IA não vai substituir médicos”, entre outros profissionais, mas “vai substituir quem não utilizar estas ferramentas, como aconteceu antes com os computadores. Em breve, todos nós deveremos saber usá-las, sob risco de perdermos o comboio. As sementes da mudança são irreversíveis e estão em toda a parte. A começar pelos nossos bolsos. Pensamos que estamos a usá-las e são elas que nos estão a usar. Tenho esperança no potencial da IA. Este é um sentimento que assenta mais no coração do que na razão”. O seu conselho é: “Habituem-se!”.
Da assistência chegaram, no final, comentários e questões sobre o papel a responsabilidade da IA, em particular na área da saúde, com Miguel Mascarenhas, professor da FMUP, a frisar que os médicos terão de “liderar” a aplicação destas ferramentas na prática clínica, depois de devidamente validadas pelas autoridades competentes. António Sarmento, por sua vez, lançou a pergunta sobre a responsabilidade da IA pelos seus erros, muitas vezes ostensivos. Para Maria Matos Graça, “não podemos responsabilizar a IA”. Seria, disse, “como culpar Deus pelos nossos pecados”.
As Conferência do CAC Porto irão prosseguir, ao longo dos próximos meses, sendo que a próxima está prevista para o dia 2 de maio, com Roberto Roncon a falar sobre “Investigação de Translação: Infeção, Doente Crítico e Miocárdio”.