O presidente do STF (Supremo Tribunal Federal), ministro Roberto Barroso, sugeriu que a regulação de IA (inteligência artificial) deve ser baseada em valores e princípios gerais e não em detalhes específicos, por conta da velocidade da tecnologia ser maior do que a capacidade de “apreensão e normatização”.
O magistrado deu a declaração em discurso nesta 2ª feira (29.jan.2024) na abertura do ano judicial da Corte Interamericana de Direitos Humanos, em San José (Costa Rica). A fala teve como tema a transformação digital e a regulação das plataformas digitais e do uso de IA.
“É preciso regular para impedir que o mal domine essa tecnologia tão poderosa, porém é preciso acertar a mão dessa regulação. Nós queremos nos proteger contra aqueles males, mas ninguém quer coibir a pesquisa e o esforço de inovação”, disse Barroso.
Como inspiração, o ministro citou a tentativa de regulamentação da UE (União Europeia) e dos Estados Unidos e as recomendações da OCDE (Organização para a Cooperação e Desenvolvimento Econômico), da ONU (Organização das Nações Unidas) e da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura).
Também mencionou o debate que presenciou em Fórum Econômico Mundial, em Davos, na Suíça. “O consenso que se formou é que é preciso regular o resultado e o uso, mas deixar a pesquisa tão livre quanto possível”, afirmou.
Leia abaixo as recomendações sobre a regulação do uso de IA feitas por Barroso:
- a IA deve ser open source (código aberto, em português) – “No sentido de ser um bem de uso comum, de acesso livre, como é a internet”;
- impedir a discriminação algorítmica – “Como a IA reproduz o comportamento humano, há o risco de se perpetuarem os preconceitos que temos hoje e impedir de criarmos um mundo melhor”;
- garantir a autonomia individual – “Os sistemas de IA atuam para modificar os nossos comportamentos e gostos”;
- respeito aos direitos autorais – “A IA dá a informação, mas não a fonte, o autor. A decisão do caso do New York Times, em alguma medida, vai ditar os rumos da inteligência generativa, porque ela armazena todo o conhecimento humano possível e não tem como dar todo o crédito ou pensar em mecanismos regulatórios para viabilizar isso”;
- combate à desinformação – “O risco de deep fake é uma ameaça à liberdade de expressão”;
- gradação de risco – “Na regulação da UE, que ainda não é oficial, eles fizeram uma gradação de risco. Se considerarem que é inaceitável, fica proibido o uso, se o risco for alto tem regulação restrita, se o risco for limitado, há exigências de transparência, se o risco for baixo, não haverá regulamentação.”