Desde o passado dia 2 de fevereiro de 2025, os capítulos I e II já são aplicáveis, relativos respetivamente às disposições gerais, que inclui a necessidade de ser assegurado um nível suficiente de literacia no domínio da IA, e às práticas de IA proibidas.
Apesar da sua simplicidade, tratam-se de aspetos cruciais que devem ser tomados em consideração uma vez que lançam os alicerces para uma IA que coloca as pessoas no centro. Consequentemente, são essenciais para edificar a confiança na IA e para direcionar o seu desenvolvimento de modo a potencializar os benefícios para a sociedade, mitigando ao mesmo tempo os potenciais perigos.
Em particular, o artigo 4.º do Regulamento de IA determina uma obrigação fundamental para os prestadores e responsáveis pela implantação de sistemas de IA: garantir a literacia dos seus colaboradores. Neste sentido, todas as organizações que forneçam ou utilizem profissionalmente modelos e sistemas de IA – por exemplo, modelos de machine learning tradicional ou IA Generativa, onde se incluem a sua utilização em sistemas como ChatGPT ou Copilot – devem garantir um nível suficiente de literacia no domínio da IA aos seus colaboradores, e quaisquer outras pessoas que operem ou utilizem esses mesmos sistemas, para que estes compreendam os impactos e riscos associados, assegurando deste modo, uma utilização mais responsável e segura.
Este imperativo é indispensável para que todas as organizações estejam preparadas para o cumprimento com o Regulamento de IA, sendo que esta obrigação se aplica a organizações de qualquer dimensão, dentro e fora da União Europeia (UE), desde que se enquadrem no seu âmbito de aplicação.
A suficiência em literacia no domínio da IA deve ter em conta vários fatores, os quais incluem o nível técnico do pessoal, a sua experiência, as suas qualificações académicas e formação, o contexto em que os sistemas serão utilizados, e as pessoas ou grupos de pessoas afetadas por essa utilização.
A literacia no domínio da IA assume-se como um pilar fundamental, na medida em que não basta saber como utilizar a IA, é imprescindível compreender o porquê e o para quê. Visa, acima de tudo, promover-se uma utilização mais informada, segura e responsável da IA, pelo que a literacia em IA ultrapassa a dimensão técnica e implica também o desenvolvimento de capacidades de análise dos impactos sociais, éticos e económicos.
Consequentemente, este é um momento crucial para que as organizações implementem medidas sólidas e robustas e que assegurem uma compreensão suficiente acerca dos benefícios, riscos e potenciais danos da IA. Portanto, é importante promover uma cultura organizacional mais desperta para a IA, capacitando assim a toma de decisões ponderadas e conscientes e reduzindo a possibilidade de riscos regulatórios, operacionais e reputacionais.
O artigo 5.º do Regulamento de IA proíbe determinadas práticas, tais como:
(i) técnicas subliminares ou manifestamente manipuladoras ou enganadoras;
(ii) exploração de vulnerabilidades devido à idade, incapacidade ou situação socioeconómica;
(iii) social scoring;
(iv) avaliação de risco de infração penal;
(v) criação ou expansão de bases de dados de reconhecimento facial através da recolha aleatória de imagens a partir da Internet ou de televisão;
(vi) inferência de emoções no local de trabalho e instituições de ensino;
(vii) sistemas de categorização biométrica; e
(viii) sistemas de identificação biométrica à distância em “tempo real” em espaços acessíveis ao público.
No entanto existem exceções, nomeadamente, ao nível da avaliação de atividades criminosas, inferência de emoções para fins médicos ou de segurança, categorização biométrica para aplicação da lei, identificação biométrica à distância em “tempo real” permitida em casos de rapto, tráfico, ameaças eminentes ou suspeitos de crime, situações de emergência e registo na base de dados da UE.
Neste contexto, é também importante notar que a Comissão Europeia publicou no dia 4 de fevereiro de 2025 um conjunto de orientações sobre práticas proibidas de IA. Apesar de não terem caráter vinculativo, nem definitivo, as orientações devem ser tidas em consideração, dado constituírem um instrumento importante na identificação das práticas consideradas como proibidas, detalhando os elementos fundamentais caraterizadores de cada prática.
A regulação da IA não é uma realidade futura, mas sim presente, pelo que urge às organizações adotar estratégias de inovação éticas e compliant. Mais ainda, devem também estabelecer processos de monitorização e auditoria, bem como implementar programas de literacia no domínio da IA.
__
Pedro Santiago Ribeiro
Risk & Regulation Manager da PwC Portugal
Catarina Camacho Correia
Risk & Regulation Senior Associate da PwC Portugal
Capacite os seus colaboradores com a nossa formação e garanta a conformidade com a Lei da UE sobre IA. Prepare a sua empresa para o futuro.
Com a PwC, descubra novos caminhos para potenciar a transformação digital da sua organização. Aproveite o poder da IA.