CE propõe quatro níveis de risco para a inteligência artificial
Enquanto os Estados Unidos e a China lutam pelo domínio a nível mundial na área da inteligência artificial, a União Europeia quer garantir que a tecnologia respeita os direitos humanos. Isto inclui proibir sistemas que manipulam o comportamento humano e barrar programas de crédito social em que a população é monitorizada, em tempo real, e recebe pontos por "bom comportamento" como já acontece na China.
Esta é a base de uma proposta da Comissão Europeia (CE) para um quadro jurídico para a inteligência artificial, divulgada a 21 de Abril. É o primeiro documento deste género no mundo e é discutido hoje no ColoquialA, uma iniciativa da Universidade Católica Portuguesa (UCP) para promover o debate público em torno da tecnologia.
As restantes ferramentas que usam algum tipo de inteligência artificial, desde chatbots nas redes sociais a ferramentas de diagnóstico médico, devem seguir regras específicas consoante o nível de risco que têm, ainda de acordo com a proposta da CE para regular a inteligência artificial.
"Há aqui a oportunidade de criar um paradigma de actuação internacional, focado no respeito dos direitos humanos", começa por dizer ao PÚBLICO Maria do Céu Patrão Neves, catedrática de Ética da Universidade dos Açores, e uma das oradoras de hoje. "Uma inteligência artificial europeia deve valorizar a privacidade e segurança dos cidadãos e deve ser transparente."
A proposta de regulação europeia chega numa altura em que a tecnologia já faz parte do dia-a-dia de muitas pessoas: está nos carros com sistemas de travagem automática, nos chatbots das redes sociais, nas assistentes digitais de gigantes tecnológicas como a Apple e a Google, e por detrás das recomendações - de livros, música, notícias - que nos chegam online. E está em sistemas de recrutamento, diagnóstico e detecção de erros em infra-estruturas críticas. Todas estas ferramentas dependem de algoritmos capazes de aprender e executar tarefas, sozinhos, a partir de enormes bases de dados.
"É fundamental ter sistemas de responsabilização para lidar com eventuais problemas e erros", sublinha Henrique Sousa Antunes, professor de Direito e coordenador do grupo de Direito e Inteligência Artificial da UCP. "Veja-se a polémica de Abril sobre a forma como a TAP estava a usar algoritmos para escolher os trabalhadores que iam receber propostas de rescisão de contrato," lembra o professor de Direito.
O algoritmo desenvolvido pela consultora Boston Consulting Group (BCG) foi criado para identificar trabalhadores com faltas injustificadas, mas também estaria a incluir faltas justificadas. "Isto é um exemplo próximo que mostra como é importante regular o sector. Muitas vezes as pessoas nem sabem se estas ferramentas de recrutamento estão a ser utilizadas", explica Sousa Antunes. Só que, por ora, só a CE avançou no mundo com uma proposta para regular o sector. Abordagem de risco Um dos pontos a favor da proposta da CE, argumenta a bioeticista Maria do Céu Patrão Neves, é o facto de se focar numa "abordagem de risco".
Ler artigo completo aqui.
Nota: O artigo encontra-se disponível na íntegra para assinantes premium do Público.
Assista ao evento aqui.
Categorias: Faculty of Law - Lisbon School