Inteligência Artificial

Como manter a Inteligência Artificial sob controlo: do risco inaceitável ao mínimo

Foi aprovado na UE o primeiro quadro jurídico abrangente em matéria de IA a nível mundial. Como pode proteger os utilizadores?

Getty Images

Luís Manso

Carolina Rico

Nenhuma máquina é intrinsecamente maligna, mas pode ser programada para o ser. Um brinquedo com inteligência artificial pode, por exemplo, persuadir uma criança a ter comportamentos perigosos, um “risco inaceitável” para a União Europeia (UE).

O histórico Regulamento da Inteligência Artificial, aprovado pela Comissão Europeia em março, impõe aos criadores e implementadores de IA requisitos e obrigações claros com o único objetivo de proteger os humanos.

“É preciso regulamentar a IA. Não pode ser deixada à solta”, defende Vera Lúcia Raposo, professora auxiliar de Direito e Tecnologia e vice-diretora da Faculdade de Direito da Universidade NOVA de Lisboa. “Para tal temos de construir um quadro jurídico que acautele os direitos fundamentais e os valores europeus. E como é que vamos fazer isso? Vamos segmentar os vários sistemas de de IA por níveis de risco.”

A UE organizou esta ideia com uma pirâmide com quatro níveis de risco: inaceitável, elevado, limitado e mínimo.

São considerados um ‘risco inaceitável’ - e por isso mesmo proibidos - todos os sistemas de IA considerados uma ameaça clara aos direitos fundamentais.

É o caso de sistemas sistemas que permitam uma pontuação ou classificação social por parte de governos ou empresas, motivando tratamentos discriminatórios; de sistemas concebidos para vigiar pessoas em tempo real em espaços públicos; de sistemas que usem técnicas manipulativas ou enganadoras para incentivar comportamentos com intenção de causar dano, assim como aqueles que explorem vulnerabilidades associadas à idade, deficiência ou debilidades sociais ou económicos.

“Se eu tiver um brinquedo que interage com a criança (...) uma boneca que fala quase como a Alexa, e que consegue persuadir a criança a tomar certos comportamentos que a podem pôr em risco ou a terceiros - ‘salta da janela’, ‘mata uma pessoa’ - sobretudo numa criança isto é mais fácil do que num adulto, utilizando uma série de técnicas subliminares, este vai ser, certamente, um dos sistemas de IA proibidos.”

Já os sistemas de ‘alto risco’ - utilizados, por exemplo, em infraestruturas críticas, transportes, educação, cuidados de saúde, aplicação da lei, gestão das fronteiras ou eleições - são aceites no mercado, mas têm de submeter-se a uma avaliação de conformidade e passar por requisitos muito exigentes, incluindo disponibilizar toda a informação sobre o sistema e respetivas bases de dados, além de obrigados a supervisão humana constante que possa desligar o sistema. Uma vez no mercado, a vigilância mantém-se.

Se a lei for seguida, os europeus podem confiar no que a IA tem para oferecer, acreditam os reguladores. Por outro lado, o nível de detalhe e regulamentação suscita vários problemas para juristas, advogados e startups. Um mal necessário, defende Vera Lúcia Raposo.

“Nós precisamos daqueles problemas, nós precisamos daqueles entraves para conseguir proteger os direitos fundamentais, considerando a grande ameaça que a IA suscita”.

Para o investigador do Centro de Filosofia das Ciências da Universidade de Lisboa Paulo Castro, autor de uma tese sobre IA, AI Safety Summit, organizada em 2023 no Reino Unido, foi o “evento ético mais poderoso, mais significativo do século XXI”.

“É o equivalente a um evento de desnuclearização”, considera. Há esta preocupação tremenda que essas IA , esses sistemas tão sofisticados, podem facilmente sair do controlo humano ou serem utilizadas por grupos maliciosos.”

No mundo da IA, quem tem dados é rei

A questão das bases de dados é particularmente sensível. Os dados alimentam a IA e, tal como acontece no caso dos humanos, ‘somos o que comemos’.

“O algoritmo é eticamente neutro. Até que eu escolha que dados é que ele vai retirar da realidade e que tipo de aplicação é que vai ter sobre a realidade”, explica Paulo Castro.

“Um sistema de IA que, por exemplo, seja treinado com dados que lhe mostram que as pessoas que são promovidas numa empresa são sempre homens vai, naturalmente, avaliar CV para efeitos de promoção vai privilegiar os homens, porque foi assim que o sistema aprendeu”, nota Vera Lúcia Raposo.

Por outro lado, aponta a investigadora, também não existem humanos perfeitamente imparciais.

“Os viés existem. Não os conseguimos eliminar. Eventualmente, vamos conseguir limitá-los, diminui-los. Mas as decisões humanas não têm outra coisa a não ser viés. Portanto, os viés da IA são, obviamente, uma grande preocupação, mas também não vamos demonizar e pensar que as decisões humanas sempre intrinsecamente justas, porque não são.”

Com todos os sistemas de AI a precisar de dados para aprender, as grandes empresas que nos últimos anos recolheram e armazenam dados têm uma vantagem clara sobre pequenas empresas. O mesmo se pode dizer sobre determinados países em detrimento de outros.

“Quem tem dados não são aqueles países de África ou do Médio Oriente que são ricos em petróleo. Quem tem dados são as economias desenvolvidas do mundo ocidental (...) O poder hoje em dia já não é tanto o dinheiro em si, ou sequer a influência, são os dados.”


Veja na íntegra os dois episódios da Grande Reportagem: “Penso, IA existe” e “Existe, IA pensa”

Últimas