Como parte do meu trabalho, a cada semana eu leio muito conteúdo sobre dados, tecnologia e inteligência artificial (apelidada de IA). Eu faço uma seleção e envio para você os melhores, todos os domingos.
Essa semana vamos conversar sobre o marco regulatório da Inteligência Artificial (IA) no Brasil, mas antes você sabia que já ultrapassamos a marca de 3 mil leitores do nosso Joio? Quero começar o texto de hoje expressando minha gratidão pela confiança de todos vocês! Vamos nessa!
O chique é ser simples
Hoje faremos uma edição especial, a pedidos, sobre o marco regulatório da Inteligência Artificial (IA) no Brasil. Ah, uma pequena curiosidade: tive a oportunidade de participar de algumas discussões sobre esse tema no Senado Federal!
Antes de adentrarmos na regulação, vale destacar que o Brasil investe muito pouco em Inteligência Artificial (IA) em comparação a outros países. Por exemplo, em 2022, os EUA investiram aproximadamente 48 bilhões de dólares em IA, cerca de 3.5 vezes mais que a China, segundo a Universidade de Stanford. Os dados podem ser conferidos no gráfico abaixo.
Considerando nosso baixo índice de automação e as ineficiências existentes em diversos setores, bem como o tamanho do nosso mercado consumidor, o Brasil pode ser visto como um terreno fértil para sistemas baseados em IA. Portanto, uma regulação estrategicamente construída pode nos assegurar uma posição neste complexo quebra-cabeça.
No início de maio, o presidente do Senado, Rodrigo Pacheco, apresentou um projeto de lei destinado a estabelecer o marco legal da Inteligência Artificial no país. O maior desafio reside em encontrar uma estratégia que permita conciliar o desenvolvimento e avanço de tecnologias baseadas em inteligência artificial com os direitos e garantias individuais.
O primeiro projeto de lei focado em estabelecer princípios para a utilização da Inteligência Artificial no Brasil surgiu em 2019, visando assegurar seu desenvolvimento para benefício da sociedade. Em 2020 e 2021, surgiram novos projetos, abordando rastreabilidade de decisões, prevenção contra vieses discriminatórios e questões de governança. Com base nessas propostas, o Senado Federal criou em março de 2022 uma comissão para auxiliar na elaboração de um anteprojeto, visando normatizar o desenvolvimento e aplicação da IA no Brasil.
O texto final, conhecido como Marco Legal da Inteligência Artificial, pode ser compreendido a partir de cinco pilares : Definição de Agentes, Princípios sobre Uso e Desenvolvimento, Direitos das Pessoas, Classificação de Risco dos Sistemas de IA e Medidas de Governança.
O texto define “Agentes de IA” como os fornecedores, que desenvolvem sistemas de Inteligência Artificial, e os operadores, que os utilizam. De acordo com a lei, ambos são responsáveis por reparar quaisquer danos causados por esses sistemas, independentemente do nível de autonomia do sistema.
O segundo pilar discute princípios importantes sobre o uso e desenvolvimento de sistemas baseados em IA. Esses princípios visam garantir que a tecnologia seja empregada de forma responsável. Por exemplo, a IA deve ser projetada e utilizada de tal forma que não discrimine ninguém. Além disso, deve ser transparente, o que significa que as pessoas devem ser capazes de entender seu funcionamento e como as decisões são tomadas. Esses princípios buscam que a tecnologia seja empregada de maneira ética e segura.
O terceiro pilar se concentra nos direitos individuais, destacando que qualquer pessoa que interaja com sistemas de IA possui direitos claros quanto à natureza dessa interação. Caso um sistema tome uma decisão que impacte alguém, esse indivíduo tem o direito não apenas de exigir uma explicação, mas também de contestar tal decisão. Além disso, as pessoas têm o direito de solicitar a intervenção humana em certas decisões, bem como o direito à privacidade e à proteção dos seus dados pessoais. Esses direitos estão garantidos e podem ser exercidos perante as autoridades competentes.
Os sistemas de IA são classificados em ‘risco excessivo’ e ‘alto risco’, segundo o projeto de lei. Sistemas de ‘risco excessivo’, que representam potenciais danos à saúde, segurança ou direitos das pessoas, não são permitidos no Brasil. Por outro lado, os sistemas de ‘alto risco’, apesar de serem permitidos, requerem atenção redobrada. Esta categoria engloba sistemas empregados em infraestruturas críticas, como energia e transportes, avaliações profissionais ou de crédito, veículos autônomos, diagnósticos e procedimentos médicos, e sistemas biométricos de identificação. A lei estipula que os responsáveis por sistemas de ‘alto risco’ devem se responsabilizar por eventuais danos causados, sejam eles fornecedores ou operadores.
O quinto componente do Marco Legal enfatiza a necessidade de governança. Aqueles que desenvolvem ou utilizam esses sistemas devem estabelecer procedimentos e estruturas que protejam os indivíduos impactados pelas decisões produzidas por seus sistemas. Isto envolve a aplicação de práticas de transparência e gerenciamento de dados que previnam preconceitos e assegurem a privacidade desde a fase inicial de criação do sistema.
O Marco Legal inaugura uma discussão imprescindível, estabelecendo papéis e responsabilidades e gerando um ambiente mais seguro para todos, ao preservar e garantir direitos fundamentais, como o da não discriminação. O aspecto de governança inicia um processo que assegura a tranquilidade jurídica necessária para que a sociedade possa aproveitar ao máximo o potencial dessa tecnologia.
No entanto, precisamos considerar que ainda temos um conhecimento limitado sobre a tecnologia para estabelecer conceitos muito rígidos neste momento. A legislação deve evoluir em sintonia com a tecnologia; caso contrário, corremos o risco de ter uma lei obsoleta em um curto espaço de tempo. A governança, embora proporcione segurança, deve ser flexível o suficiente para não se tornar uma barreira ao desenvolvimento da tecnologia nos ecossistemas apropriados.
O projeto de lei seguirá o processo constitucional, mas você pode estar questionando: como posso me preparar? O primeiro passo é catalogar os sistemas de Inteligência Artificial (IA) que sua organização desenvolve ou emprega. Uma avaliação inicial desses sistemas, incluindo seus tipos e aplicações, é fundamental para começar a identificar possíveis riscos. Caso você descubra sistemas que possam ser categorizados como de alto risco, será necessário começar a formular medidas que podem abranger políticas de gestão e avaliações de impacto. Outra etapa essencial é capacitar profissionais para atuarem na área de governança e auditoria de sistemas de IA, que apresentam diferentes níveis de autonomia e complexidade.
Conforme discutimos em nossa edição #6, o tema da ética tem sido debatido pela sociedade desde Aristóteles e ainda temos alguns longos passos a percorrer. A evolução tecnológica em geral acelera debates e discussões, impulsionando também a evolução jurídica. A era da IA está apenas começando! 🙂
Notícias Interessantes em português
🔗 Link: Entenda como viés afeta 57% das empresas Brasileiras.
🔗 Link: Com o uso de IA, especialistas descobrem antibiótico capaz de acabar com bactéria multi resistente.
Enquanto isso na gringa…
🔗 Link: Saiba como obter insights melhores de seus dados.
🔗 Link: Você sabe o que é um especialista em qualidade de dados?
Adoramos uma indicação!
Se você conhece alguém que possa gostar do nosso trabalho, agora você pode indicá-lo. A propósito, adoramos indicações!
até Domingo…
Sempre chegamos na sua caixa de entrada por volta das 12:08 PM. Alguns servidores de e-mail são teimosos e atrasam… Outros são piores ainda e nos jogam para o spam e/ ou promoções. Qual a lógica deste horário? …Nenhuma 🙂
Clique aqui para ler a notícia em seu site original
Diretamente de O Joio do Trigo