Regulação sobre IA no país não toca no essencial – Gazeta do Povo

Encontre matérias e conteúdos da Gazeta do Povo
O Sua Leitura indica o quanto você está informado sobre um determinado assunto de acordo com a profundidade e contextualização dos conteúdos que você lê. Nosso time de editores credita 20, 40, 60, 80 ou 100 pontos a cada conteúdo – aqueles que mais ajudam na compreensão do momento do país recebem mais pontos. Ao longo do tempo, essa pontuação vai sendo reduzida, já que conteúdos mais novos tendem a ser também mais relevantes na compreensão do noticiário. Assim, a sua pontuação nesse sistema é dinâmica: aumenta quando você lê e diminui quando você deixa de se informar. Neste momento a pontuação está sendo feita somente em conteúdos relacionados ao governo federal.
Em tramitação no Senado desde maio do ano passado, o Projeto de Lei 2338/2023, ou o Marco Legal da Inteligência Artificial (IA) no Brasil, pode ser votado até meados de junho. O debate na Casa Alta do Congresso Nacional está focado em como a tecnologia pode influenciar as eleições por meio de disseminação de mentiras. Mas questões como riscos à saúde das pessoas, empregos militares e no controle social e a própria discussão da inteligência artificial representar ou não um risco para a humanidade até agora não estão gerando discussão pública e podem ficar de fora do debate político, segundo analistas ouvidos pela reportagem.
Durante seu discurso de abertura dos trabalhos legislativos desse ano, em fevereiro, o presidente do Senado, Rodrigo Pacheco (PSD-MG) disse ser imperativo regular a Inteligência Artificial e as redes sociais, “principalmente quanto à imposição de responsabilidades na veiculação de informações, a fim de mitigar externalidades negativas e potencializar benefícios à sociedade de tecnologias com potencial disruptivo exponencial”.
O advogado especialista em Direito Digital André Marsiglia avalia que o debate a respeito da Inteligência Artificial no Brasil ainda é raso e que não chega aos dilemas éticos sobre seu desenvolvimento e utilização, tal como se faz, por exemplo, em relação ao desenvolvimento da engenharia genética e de pesquisas com células tronco. Esse tipo de discussão vem ocorrendo há anos no exterior, mas passa longe dos centros de poder político brasileiros, salvo raras exceções.
Marsiglia ainda comenta que “como a compreensão sobre o tema é rasa, a opção tem sido proibir a tecnologia sem discuti-la”, como ocorreu no caso da resolução do TSE sobre os deep fakes (manipulações de vídeos feitas com Inteligência Artificial capazes de alterar o que uma pessoa está falando ou fazendo).
Em fevereiro deste ano, adiantando-se à regulação do Congresso Nacional sobre o tema, o Tribunal Superior Eleitoral (TSE) lançou uma norma inédita que proibiu o uso de deep fakes e tornou obrigatório que propagandas eleitorais que utilizem recursos de Inteligência Artificial deixem claro que a tecnologia está sendo utilizada.
Segundo o senador astronauta Marcos Pontes (PL-SP), que acompanha o desenvolvimento do Marco Legal da Inteligência Artificial no Senado, o TSE cumpriu seu papel ao tentar proteger o processo eleitoral, ainda que os pontos abordados pelo Tribunal não sejam o foco principal do debate sobre a inteligência artificial. “Essa discussão é somente sobre um dos efeitos que a Inteligência Artificial pode ter”, afirmou o senador. Ele disse acreditar que a “Inteligência Artificial é uma tecnologia de característica mundial que vai propiciar a maior revolução tecnológica que a espécie humana já vivenciou”.
No Senado, a previsão é que, após análise final da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), o texto vá para a apreciação do plenário, com votação prevista para o dia 18 de junho. No que depender de Pontes, que ocupa a vice-presidência da CTIA, a proposta da Comissão para o Projeto de Lei contemplará uma regulação mais aprofundada para o desenvolvimento, a gestão e o uso de sistemas de Inteligência Artificial no Brasil.
No Congresso, partiu do Senado Federal a iniciativa de criar uma lei abrangente para a regulação da Inteligência Artificial no Brasil. O Projeto de Lei 2338/2023 que, quando aprovado será o Marco Legal da Inteligência Artificial no Brasil é uma proposta primeiramente apresentada pelo presidente da Casa, senador Rodrigo Pacheco (PSD-MG), sendo o resultado do trabalho de uma comissão de juristas encarregada especialmente de discutir o tema.
Após a apresentação dessa proposta em maio do ano passado, o Senado avaliou que era preciso aprofundar a discussão sobre o tema e, para tanto, criou a Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA). Presidida pelo senador Carlos Viana (Podemos-MG), a Comissão realizou uma série de audiências pública e, até dia 22 de maio, última quarta-feira, recebeu contribuições para o texto final do PL.
O relator da CTIA, o senador Eduardo Gomes (PL-TO), assim como o vice-presidente, o senador Marcos Pontes (PL-SP), elaboraram substitutivos para a proposta. Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) elaborou e encaminhou para a Comissão um documento com diversas sugestões para o aprimoramento do PL.
A previsão é de que, no dia 5 de junho, o relatório final seja apresentado à Comissão, que votará a proposta no dia 12, a fim de que o Projeto de Lei seja votado no Plenário do Senado no dia 18 de junho. Após essa tramitação, o PL ainda precisa passar pela Câmara dos Deputados e, caso seja aprovado sem alterações, poderá seguir para a sanção do Presidente Luiz Inácio Lula da Silva.
Em entrevista ao podcast Assunto Capital da Gazeta do Povo, Pontes afirmou que as sugestões que apresentou são, na verdade, da própria comissão. Dentre as principais mudanças propostas estão a previsão para o fomento de ações visando o desenvolvimento da Inteligência Artificial no país, assim como uma classificação de risco mais objetiva para os programas e aplicativos que se utilizam dessa tecnologia.
Segundo o senador paulista, o maior risco para o Brasil é se tornar dependente de soluções de Inteligência Artificial de outros países, por não desenvolver as próprias tecnologias, já que a Inteligência Artificial será desenvolvida independente da vontade ou das regras um único país ou bloco. “Tendo em vista ser inevitável o uso de Inteligência Artificial atual ou no futuro, é mais arriscado o país não usar Inteligência Artificial do que usar”, afirmou Pontes. Em relação à amplitude dos debates e discussões para a proposição do PL, o senador disse que percebeu um bom engajamento dos setores diretamente envolvidos nessa área.
Empresas ligadas aos aos Estados Unidos e à China devem liderar a criação da nova tecnologia. O Brasil e outros países em desenvolvimento devem exercer papel secundário nesse processo de desenvolvimento, mas não estarão imunes aos seus efeitos e formas de utilização.
O analista Marsiglia avalia que o debate sobre a Inteligência Artificial não foi feito de forma adequada com a sociedade e nem no Congresso Nacional. O especialista afirmou que muitas das preocupações legislativas são ainda pobres e captam aspectos secundários da utilização, como violações a direitos autorais, dados e deep fakes eleitorais. “Acredito não estamos com o debate amadurecido para uma solução legislativa eficaz”, afirmou.
Uma das principais preocupações dos líderes da Comissão foi a de fazer com que o PL possa responder de forma adequada aos principais riscos trazidos pela Inteligência Artificial tanto atualmente quanto no futuro. Com o desenvolvimento exponencial da tecnologia, é possível que riscos atuais possam ser resolvidos de forma simples em um futuro próximo, mas outras questão se apresentarão.
Pontes citou que uma das principais questões é a utilização não ética das ferramentas. Isso que não chega a ser um problema da tecnologia em si, mas de quem a utiliza. Dentre esses desvios éticos está, por exemplo, a discriminação de determinado grupo de pessoas, com base nos parâmetros de treinamento e das informações com as quais os sistemas são “alimentados”. Por exemplo, um programa de Inteligência Artificial que defina a disponibilidade de crédito financeiro e que se utilize de critérios como raça, gênero ou, até mesmo, que classifique as pessoas com base no histórico de sua família, por exemplo.
Isso já pode ser realidade em outros países. Há relatos não confirmados de que esse tipo de tecnologia estaria sendo usada na Rússia para recrutar para a guerra na Ucrânia cidadãos considerados menos úteis para a sociedade, como por exemplo pessoas com históricos de ficha criminal ou desemprego continuado. Isso viola princípios universais de igualdade e direitos humanos.
A privacidade de dados também é uma questão que deve ser observada para o desenvolvimento de sistemas de Inteligência Artificial. Por exemplo, para que um sistema de Inteligência Artificial faça análises do perfil financeiro de uma pessoa, ele pode cruzar informações de cartões de crédito, de compras em farmácia, entre outras. Longe de ser um problema futuro, a violação de direitos de privacidade já ocorreu em larga escala, como no caso da Cambridge Analytica e do Facebook, quando dados de milhões de pessoas foram comercializados e utilizados para a promoção de campanhas políticas em vários países.
Um ponto essencial é o risco de que sistemas de Inteligência Artificial possam ser uma ameaça à vida humana. Um exemplo desse tipo de aplicação, são os sistemas de armas, como mísseis, cuja “decisão” de acionamento possa ser feita pela própria Inteligência Artificial, sem a necessidade de intervenção humana. Da mesma forma, aplicações médicas cuja IA chegue à conclusão da existência de um quadro terminal e irreversível, podem levar à decisão de interromper o tratamento da pessoa. Esse ponto foi debatido pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) mas ainda não ganhou atenção de políticos não envolvidos com o grupo.
Outro risco é o de que a Inteligência Artificial seja utilizada para controle social. Ou seja, para vigiar e manipular as pessoas, por meio de sistemas de geolocalização, de reconhecimento facial ou biométrico, de câmeras de vigilância cujas imagens e dados possam ser analisadas de forma isolada ou integrada. Isso pode comprometer a liberdade individual e coletiva, além de conferir poderes exacerbados às autoridades ou àqueles que detenham o controle dessas aplicações. Isto é, a implementação de uma espécie de Big Brother nos espaços públicos.
Menos distópico, mas não menos preocupante, está a possibilidade, a cada dia mais factível, de que sistemas de Inteligência Artificial realizem funções na indústria e no mercado de serviços e, dessa forma, substituam milhões de trabalhadores.
O próprio Elon Musk, empresário dono da Tesla, da Starlink e do X (antigo Twitter), afirmou no dia 23 de maio, durante uma conferência em Paris, que a Inteligência Artificial suprimirá todos os empregos. Segundo ele, as pessoas que desejarem ainda poderão trabalhar como um passatempo, e que as demais precisarão receber uma “alta renda universal”, ainda que não tenha explicado exatamente o que ela seria.
Ainda que seja um entusiasta da Inteligência Artificial, no final do ano passado ele criou a empresa X.AI para desenvolver soluções nesse campo. Mas o bilionário já alertou sobre os riscos do desenvolvimento desenfreado da tecnologia. Em março de 2023, ele e outros especialistas no setor assinaram uma carta aberta solicitando uma pausa de 6 meses no desenvolvimento de ferramentas de Inteligência Artificial, o que não ocorreu.
Diante dos riscos já vislumbrados e da rápida evolução da Inteligência Artificial em todo o mundo, o senador Marcos Pontes avalia que não se pode prever quais serão os mais perigosos no caso do Brasil. Nesse sentido, ele destaca que a regulamentação brasileira deve ser “baseada em princípios, fomento e em uma matriz de risco que sirva de balizador para os desenvolvedores e o Governo Federal”.
Para tanto, o substitutivo proposto pelo senador não elenca cada um dos riscos previstos, mas traz uma tabela de classificação para que sejam avaliados com base em parâmetros gerais de probabilidade e gravidade do impacto – uma espécie de matriz de riscos. De acordo com essa proposta, o desenvolvedor ou operador do sistema deve realizar o cálculo final do risco de seu sistema ou aplicação. Todo esse processo será monitorado e analisado pela autoridade responsável pela regulação do setor – nesse caso, a sugestão é que seja a Autoridade Nacional de Proteção de Dados.
Em outras palavras, a ideia é que as próprias empresas avaliem os riscos das tecnologias que estão desenvolvendo. Mas essa avaliação de riscos deixaria de ser totalmente baseada em percepções subjetivas e passaria a ser submetida a um critério de avaliação universal e baseado em critérios científicos.
Máximo de 700 caracteres [0]
Apenas assinantes podem salvar para ler depois
Saiba mais em Minha Gazeta
Você salvou o conteúdo para ler depois
As notícias salvas ficam em Minha Gazeta na seção Conteúdos salvos. Leia quando quiser.
Encontre matérias e conteúdos da Gazeta do Povo
Carregando notificações
Aguarde…
Os recursos em Minha Gazeta são exclusivos para assinantes
Saiba mais sobre Minha Gazeta »

source

Compartilhe:

Picture of Marcelo Faria - Redação Kriahtiva

Marcelo Faria - Redação Kriahtiva

Marcelo Faria, aos 27 anos, é a mente criativa por trás da produção de textos da Kriahtiva. Com uma paixão inigualável pelo universo online, seus textos são faróis de inspiração, navegando pelos mares do marketing digital com inovação e expertise. Em cada artigo, ele transforma conceitos complexos em leituras envolventes, guiando os leitores por uma jornada única de descobertas no vasto mundo do marketing.

Sobre o autor

Picture of Marcelo Faria - Redação Kriahtiva

Marcelo Faria - Redação Kriahtiva

Marcelo Faria, aos 27 anos, é a mente criativa por trás da produção de textos da Kriahtiva. Com uma paixão inigualável pelo universo online, seus textos são faróis de inspiração, navegando pelos mares do marketing digital com inovação e expertise. Em cada artigo, ele transforma conceitos complexos em leituras envolventes, guiando os leitores por uma jornada única de descobertas no vasto mundo do marketing.

Veja também

mais acessados

On Key

Related Posts

Regulação sobre IA no país não toca no essencial – Gazeta do Povo