{"id":8694,"date":"2024-12-15T00:59:30","date_gmt":"2024-12-15T03:59:30","guid":{"rendered":"https:\/\/data.ioda.org.br\/?p=8694"},"modified":"2024-12-20T01:44:18","modified_gmt":"2024-12-20T04:44:18","slug":"projeto-de-lei-no-2-338-2023-desafios-da-regulamentacao-da-ia","status":"publish","type":"post","link":"https:\/\/data.ioda.org.br\/publicacoes\/radar-legislativo-ioda\/projeto-de-lei-no-2-338-2023-desafios-da-regulamentacao-da-ia\/","title":{"rendered":"Projeto de Lei n\u00ba 2.338\/2023: Desafios da Regulamenta\u00e7\u00e3o da IA"},"content":{"rendered":"

An\u00e1lise Jur\u00eddica sobre o Parecer da Comiss\u00e3o Tempor\u00e1ria Interna sobre Intelig\u00eancia Artificial no Brasil.<\/strong><\/p>\n

O Projeto de Lei n\u00ba 2.338\/2023 representa um marco importante na regula\u00e7\u00e3o da intelig\u00eancia artificial no Brasil. Com o objetivo de estabelecer normas gerais para o desenvolvimento e uso \u00e9tico da IA, o projeto busca proteger os direitos fundamentais dos cidad\u00e3os, ao mesmo tempo em que estimula a inova\u00e7\u00e3o tecnol\u00f3gica. A proposta \u00e9 resultado de um extenso processo de consulta e an\u00e1lise, envolvendo especialistas e a sociedade civil, refletindo a complexidade e a relev\u00e2ncia do tema na atualidade<\/p>\n

O presente texto visa analisar o parecer da Comiss\u00e3o Tempor\u00e1ria Interna sobre Intelig\u00eancia Artificial<\/strong><\/a> (CTIA) do Senado Federal<\/strong><\/a>, que aborda diversos Projetos de Lei (PLs) relacionados ao uso e regulamenta\u00e7\u00e3o da Intelig\u00eancia Artificial (IA) no Brasil.<\/p>\n

A discuss\u00e3o sobre a IA \u00e9 de suma import\u00e2ncia, considerando seu impacto nas esferas social, econ\u00f4mica e jur\u00eddica, al\u00e9m de suas implica\u00e7\u00f5es \u00e9ticas e de prote\u00e7\u00e3o de dados.<\/p>\n

Contexto Normativo<\/h2>\n

A CTIA foi institu\u00edda com o objetivo de subsidiar a elabora\u00e7\u00e3o de propostas legislativas que estabele\u00e7am princ\u00edpios, diretrizes e regras para o desenvolvimento e aplica\u00e7\u00e3o da IA no Brasil.<\/p>\n

O parecer em quest\u00e3o analisa PLs como o n\u00ba 2338, de 2023, que prop\u00f5e um marco regulat\u00f3rio para a IA, e outros projetos que visam regulamentar o uso da tecnologia em setores espec\u00edficos, como sa\u00fade, direito e publicidade.<\/p>\n

Princ\u00edpios e Diretrizes Propostos<\/h2>\n

Os projetos analisados no parecer buscam estabelecer fundamentos que garantam a utiliza\u00e7\u00e3o respons\u00e1vel da IA, respeitando direitos fundamentais, como a dignidade da pessoa humana, a privacidade e a prote\u00e7\u00e3o de dados pessoais.<\/p>\n

A proposta de um marco regulat\u00f3rio \u00e9 essencial para assegurar que a inova\u00e7\u00e3o tecnol\u00f3gica ocorra de forma \u00e9tica e que os direitos dos cidad\u00e3os sejam resguardados.<\/p>\n

Implica\u00e7\u00f5es Jur\u00eddicas do Projeto de Lei 2338\/23<\/h2>\n

A regula\u00e7\u00e3o da intelig\u00eancia artificial \u00e9 uma das miss\u00f5es mais desafiadoras que o Parlamento brasileiro enfrenta. A necessidade de equilibrar a prote\u00e7\u00e3o dos direitos individuais com o fomento \u00e0 inova\u00e7\u00e3o \u00e9 crucial.<\/p>\n

O PL n\u00ba 2.338\/2023 busca criar um ambiente seguro e confi\u00e1vel para o uso da IA, abordando quest\u00f5es como a responsabilidade dos desenvolvedores e a transpar\u00eancia nos sistemas. Essa legisla\u00e7\u00e3o \u00e9 fundamental para garantir que a tecnologia sirva ao bem comum e n\u00e3o perpetue desigualdades ou discrimina\u00e7\u00f5es. Pode-se apresentar tr\u00eas pontos cruciais que norteaim os debates at\u00e9 aqui havidos, quais sejam:<\/p>\n

    \n
  1. Prote\u00e7\u00e3o de Dados Pessoais<\/strong>: A regulamenta\u00e7\u00e3o da IA deve estar em conson\u00e2ncia com a Lei Geral de Prote\u00e7\u00e3o de Dados<\/strong><\/a> (LGPD), que estabelece normas para o tratamento de dados pessoais. O uso de IA em contextos como a publicidade e a sa\u00fade requer uma an\u00e1lise cuidadosa sobre a coleta, armazenamento e utiliza\u00e7\u00e3o de dados, garantindo a transpar\u00eancia e o consentimento dos indiv\u00edduos.<\/li>\n
  2. Responsabilidade Civil<\/strong>: A implementa\u00e7\u00e3o de sistemas de IA levanta quest\u00f5es sobre a responsabilidade civil em caso de danos causados por decis\u00f5es automatizadas. O parecer deve considerar a necessidade de atribui\u00e7\u00e3o de responsabilidade a desenvolvedores, operadores e usu\u00e1rios de IA, promovendo um ambiente jur\u00eddico que proteja os direitos dos afetados.<\/li>\n
  3. Propriedade Intelectual<\/strong>: A inova\u00e7\u00e3o trazida pela IA tamb\u00e9m impacta o campo da propriedade intelectual. O parecer deve abordar como as cria\u00e7\u00f5es geradas por IA ser\u00e3o protegidas, considerando a possibilidade de que obras criadas autonomamente por algoritmos possam n\u00e3o se enquadrar nas defini\u00e7\u00f5es tradicionais de autoria.<\/li>\n<\/ol>\n

    O parecer da CTIA representa um avan\u00e7o significativo na discuss\u00e3o sobre a regulamenta\u00e7\u00e3o da Intelig\u00eancia Artificial no Brasil. A cria\u00e7\u00e3o de um marco legal que aborde as quest\u00f5es \u00e9ticas, de prote\u00e7\u00e3o de dados e de responsabilidade civil \u00e9 fundamental para garantir que a IA seja utilizada de forma a beneficiar a sociedade, respeitando os direitos dos indiv\u00edduos.<\/p>\n

    A continuidade do debate legislativo e a participa\u00e7\u00e3o da sociedade civil s\u00e3o essenciais para a constru\u00e7\u00e3o de um ambiente regulat\u00f3rio que promova a inova\u00e7\u00e3o respons\u00e1vel e a prote\u00e7\u00e3o dos direitos fundamentais.<\/p>\n

    Recomenda\u00e7\u00f5es, Contribui\u00e7\u00f5es e Cr\u00edticas da Sociedade Civil<\/h2>\n

    A princ\u00edpio \u00e9 salutar que durante o processo legislativo, o legislador considere as contribui\u00e7\u00f5es de especialistas em tecnologia, direito e \u00e9tica durante a elabora\u00e7\u00e3o das normas, assegurando que a legisla\u00e7\u00e3o seja abrangente e adapt\u00e1vel \u00e0s r\u00e1pidas mudan\u00e7as no campo da Intelig\u00eancia Artificial. Al\u00e9m disso, a promo\u00e7\u00e3o de audi\u00eancias p\u00fablicas e consultas \u00e0 sociedade civil pode enriquecer o debate e garantir que as vozes de diversos setores sejam ouvidas.<\/p>\n

    Este texto jur\u00eddico busca sintetizar as principais quest\u00f5es abordadas no parecer da CTIA, destacando a import\u00e2ncia de uma abordagem equilibrada e informada na regulamenta\u00e7\u00e3o da Intelig\u00eancia Artificial no Brasil.<\/p>\n

    A an\u00e1lise do Projeto de Lei n\u00ba 2338\/23 (PL 2338\/23), que visa regular a intelig\u00eancia artificial (IA) no Brasil, revela um cen\u00e1rio de urg\u00eancia e complexidade. A aprova\u00e7\u00e3o do projeto na Comiss\u00e3o Tempor\u00e1ria sobre Intelig\u00eancia Artificial (CTIA) e sua iminente vota\u00e7\u00e3o no Plen\u00e1rio do Senado Federal s\u00e3o passos cruciais para a cria\u00e7\u00e3o de um marco regulat\u00f3rio que promova uma IA respons\u00e1vel, proteja direitos fundamentais e mitigue riscos, especialmente para grupos minorizados. Contudo, o texto enfrenta cr\u00edticas substanciais da sociedade civil, que apontam retrocessos e insufici\u00eancias que podem comprometer sua efic\u00e1cia.<\/p>\n

    O relat\u00f3rio apresentado na CTIA em 28 de novembro de 2023, sob a relatoria do Senador Eduardo Gomes, trouxe \u00e0 tona dispositivos que, embora representem avan\u00e7os significativos, tamb\u00e9m suscitam preocupa\u00e7\u00f5es. A regula\u00e7\u00e3o baseada em riscos, a cria\u00e7\u00e3o de direitos para pessoas afetadas pela tecnologia e a responsabiliza\u00e7\u00e3o dos agentes da cadeia s\u00e3o aspectos positivos que colocam o Brasil em di\u00e1logo com as melhores pr\u00e1ticas internacionais.<\/p>\n

    No entanto, a flexibilidade introduzida no texto, especialmente em rela\u00e7\u00e3o \u00e0 aplica\u00e7\u00e3o da lei, pode limitar seu alcance e efic\u00e1cia.<\/p>\n

    Um dos principais pontos de cr\u00edtica reside no artigo 1\u00b0, \u00a71\u00b0, que utiliza reda\u00e7\u00f5es gen\u00e9ricas para definir quais sistemas de IA estariam sujeitos \u00e0s obriga\u00e7\u00f5es da lei. Essa abordagem pode resultar em uma regula\u00e7\u00e3o que se aplica apenas a um n\u00famero restrito de sistemas, tornando a legisla\u00e7\u00e3o in\u00f3cua.<\/p>\n

    Al\u00e9m disso, a mudan\u00e7a no artigo 12, que torna opcionais as avalia\u00e7\u00f5es preliminares de risco antes da disponibiliza\u00e7\u00e3o de sistemas de IA, representa um retrocesso significativo. A obrigatoriedade dessas avalia\u00e7\u00f5es \u00e9 fundamental para garantir que apenas sistemas que atendam a crit\u00e9rios rigorosos de seguran\u00e7a e \u00e9tica sejam introduzidos no mercado.<\/p>\n

    As medidas de governan\u00e7a, que deveriam ser obrigat\u00f3rias para sistemas de alto risco, foram flexibilizadas, permitindo que a mitiga\u00e7\u00e3o de vieses discriminat\u00f3rios ocorra apenas quando o risco for identificado. Essa abordagem pode resultar em uma falta de proatividade na preven\u00e7\u00e3o de discrimina\u00e7\u00f5es, o que \u00e9 inaceit\u00e1vel em um contexto onde a IA pode perpetuar desigualdades sociais.<\/p>\n

    Outro aspecto preocupante \u00e9 a diminui\u00e7\u00e3o da participa\u00e7\u00e3o social nos processos de presta\u00e7\u00e3o de contas e nas avalia\u00e7\u00f5es de impacto, conforme estipulado no artigo 25, \u00a78\u00ba. A transpar\u00eancia e a participa\u00e7\u00e3o p\u00fablica s\u00e3o essenciais para garantir que os sistemas de IA operem de maneira respons\u00e1vel e que os direitos dos cidad\u00e3os sejam protegidos.<\/p>\n

    A exclus\u00e3o de mecanismos que garantem supervis\u00e3o humana em decis\u00f5es automatizadas, especialmente em contextos de puni\u00e7\u00f5es disciplinares e demiss\u00f5es, \u00e9 um retrocesso grave que pode expor trabalhadores a decis\u00f5es arbitr\u00e1rias e desumanizadoras.<\/p>\n

    A possibilidade de atualiza\u00e7\u00e3o dos sistemas de alto risco, prevista no relat\u00f3rio, \u00e9 um ponto positivo que deve ser mantido. A r\u00e1pida evolu\u00e7\u00e3o da tecnologia de IA, exemplificada pela ascens\u00e3o da IA generativa, exige que a legisla\u00e7\u00e3o seja din\u00e2mica e capaz de se adaptar a novas realidades.<\/p>\n

    Outro ponto importante ser\u00e1 a press\u00e3o de empresas de tecnologia e associa\u00e7\u00f5es da ind\u00fastria para restringir essa atualiza\u00e7\u00e3o pode comprometer a efic\u00e1cia da lei.<\/p>\n

    Por fim, a classifica\u00e7\u00e3o de sistemas de IA utilizados por plataformas digitais como de alto risco \u00e9 uma medida necess\u00e1ria, dada a influ\u00eancia que esses sistemas exercem sobre o comportamento humano e o debate p\u00fablico. A prote\u00e7\u00e3o contra a manipula\u00e7\u00e3o de informa\u00e7\u00f5es e a promo\u00e7\u00e3o de um ambiente digital saud\u00e1vel s\u00e3o fundamentais para a democracia e a coes\u00e3o social.<\/p>\n

    Assim o PL 2338\/23 apresenta um potencial significativo para regular a intelig\u00eancia artificial no Brasil, mas os retrocessos e as amea\u00e7as identificadas pela sociedade civil devem ser cuidadosamente considerados.<\/p>\n

    A constru\u00e7\u00e3o de uma legisla\u00e7\u00e3o robusta e eficaz requer um compromisso com a prote\u00e7\u00e3o dos direitos humanos, a promo\u00e7\u00e3o da transpar\u00eancia e a inclus\u00e3o de mecanismos que garantam a responsabilidade dos agentes envolvidos. A sociedade civil deve continuar a pressionar por um texto que n\u00e3o apenas atenda \u00e0s demandas do setor tecnol\u00f3gico, mas que tamb\u00e9m priorize o bem-estar da popula\u00e7\u00e3o e a justi\u00e7a social.<\/p>\n

    Para ter acesso a texto integral do parecer CLIQUE AQUI<\/strong><\/a><\/p>\n

     <\/p>\n","protected":false},"excerpt":{"rendered":"

    An\u00e1lise Jur\u00eddica sobre o Parecer da Comiss\u00e3o Tempor\u00e1ria Interna sobre Intelig\u00eancia Artificial no Brasil. O Projeto de Lei n\u00ba 2.338\/2023 representa um marco importante na regula\u00e7\u00e3o da intelig\u00eancia artificial no Brasil. Com o objetivo de estabelecer normas gerais para o desenvolvimento e uso \u00e9tico da IA, o projeto busca proteger os direitos fundamentais dos cidad\u00e3os, […]<\/p>\n","protected":false},"author":34,"featured_media":8696,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1074],"tags":[1221,652,1218,522,1223,152,1220,1216,1222,1217,519,615,354,1219,25,764],"class_list":["post-8694","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-radar-legislativo-ioda","tag-desafios","tag-desenvolvimento","tag-direitos-humanos","tag-etica","tag-inclusao","tag-inovacao","tag-marcos-legais","tag-nteligencia-artificial","tag-oportunidades","tag-projeto-de-lei","tag-protecao-de-dados","tag-regulacao","tag-responsabilidade","tag-sociedade","tag-tecnologia","tag-transparencia"],"acf":[],"_links":{"self":[{"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/posts\/8694","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/users\/34"}],"replies":[{"embeddable":true,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/comments?post=8694"}],"version-history":[{"count":0,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/posts\/8694\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/media\/8696"}],"wp:attachment":[{"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/media?parent=8694"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/categories?post=8694"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/data.ioda.org.br\/json\/wp\/v2\/tags?post=8694"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}