Máquinas inteligentes, mas também mais éticas - Vodafone Future

Máquinas inteligentes, mas também mais éticas

Loading the player...

FRANCESCA ROSSI

Diretora de Ética em Inteligência Artificial, IBM


A ética é considerada o ramo da Filosofia que reflete sobre os comportamentos humanos (as suas causas, os seus sucessos ou os seus erros) de um ponto de vista moral.

Esta avaliação, que implica ainda a liberdade das pessoas para escolherem os atos que praticam, faz da ética uma qualidade exclusivamente humana. É por isso paradoxal falar de uma ética das máquinas. Porém, à medida que vamos colocando cada vez mais decisões nas mãos de máquinas, esta é uma disciplina necessária. Relativamente a um artigo de Núria Bigas Fortmatjé sobre o tema e publicado pela Universitat Oberta de Catalunya, o professor de Filosofia do Direito da UOC, David Martínez, assinalava que “não só é aconselhável, como até indispensável que os algoritmos incluam parâmetros éticos”. Um dos exemplos clássicos utilizados para defender a necessidade de que, no futuro, a inteligência artificial tenha uma base moral é o dos automóveis autónomos. Embora haja relatórios que garantam que as viaturas sem condutor acabem por ser mais seguras do que as atuais, é certo que terão de tomar decisões em que estarão em jogo vidas humanas. Uma vez que a ética é uma característica da nossa espécie, só nós podemos tentar transmiti-la às máquinas. É neste sentido que surgem ideias como as do projeto Máquina Moral, implementado pelo MIT, no qual, através de um jogo online, estão a ser recolhidos dados para ver como reagimos perante diferentes cenários com possíveis vítimas num acidente rodoviário.

Francesca Rossi, diretora de Ética na Inteligência Artificial da IBM, acredita que, embora tenham sido alcançados grandes progressos, ainda temos de ser pacientes: “As pessoas têm de perceber que a IA existe há 70 anos, mas que ainda está em desenvolvimento. Temos muitos desafios pela frente e muitas coisas que não sabemos fazer.” A maior capacidade das máquinas para processar informação, juntamente com a imensa quantidade de dados que geramos no nosso dia-a-dia, faz com que os algoritmos sejam cada vez mais exatos, mas isso não significa que sejam também mais éticos, uma vez que só aprendem o que lhes é ensinado. Há alguns anos, uma máquina de inteligência artificial programada pela Microsoft começou a demonstrar comportamentos racistas, homófobos e antissemitas depois de passar apenas um dia no Twitter. E num estudo publicado em 2017, a revista “Science” garantia que muitas máquinas de inteligência artificial se tornavam machistas quando aprendiam a comunicar por palavras, devido ao facto deste preconceito estar implícito em muitos idiomas.

Enfrentar o risco de que os modelos de aprendizagem baseados em comportamentos humanos em grande escala reproduzam estereótipos e preconceitos existentes na população é uma das tarefas ds Francesca Rossi. “Só será possível entender os problemas e resolvê-los com uma abordagem multidisciplinar e envolvendo todos”, garante Rossi. Uma tarefa na qual devem estar envolvidos, em conjunto, empresas tecnológicas, governos e instituições como as Nações Unidas, uma vez que avançamos para um futuro no qual as máquinas terão cada vez mais importância nas suas relações com os humanos.

Entrevista e edição: Noelia Núñez, David Giraldo
Texto: José L. Álvarez Cedena

Send this to friend