
Um artigo escrito por Felipe Rodriguez Alvarez nos traz uma comparação muito boa sobre a inteligência artificial e LGPD de uma forma bem didática e específica.
Divido o artigo na íntegra, com autorização do autor:
Inteligência Artificial: Ética e LGPD
INTRODUÇÃO
Os anseios pela proteção de dados pessoais somado a sociedade que aprendeu a reconhecer padrões[1] para definição de quem é apto a tomar créditos até ao reconhecimento do potencial de compra de determinada parte da população, tem inclinado os acadêmicos ao redor do mundo num esforço hercúleo para identificar premissas para que o uso de decisões automatizadas não agravem a crise que vivemos quanto ao enviesamento de dados.
O professor GILLESPIE, no ano de 2014 já ponderava que ‘acreditar que algoritmos sejam isentos de subjetividade é uma ficção cuidadosamente construída[2], porquanto a seleção dos dados no processamento dos dados, dependerão de prescrições para o dado básico, aquele de entrada no processo de aprendizado de máquina.
Se de um lado a preocupação ética repousa sobre os acadêmicos, os inovadores não parecem sentir a importância sobre o tema. A ansiedade na demonstração do ´novo´ e o desejo de monetizar a invenção, inadmite que os testes aos recursos prescindem a reflexão dos padrões e comportamentos que ensinaremos as máquinas.
Na sociedade atual a inteligência artificial já nos empresta suas maravilhas para diagnósticos clínicos, avaliação de sinistralidades, determinação de rotas logísticas e reconhecimento da popularidade das campanhas publicitárias, para citar apenas alguns exemplos.
O ensino da máquina é feito através de dois métodos: (a) supervisionado e (b) sem supervisão. O primeiro é fornecer a máquina um banco de dados e deixar com que ela reconheça por si os padrões e passe a organizar parâmetros para determinar premissas.
O último, estabelece uma metodologia de ensino e define as premissas para que a máquina passe a coletar informações e organizar as informações sob um design supervisionado, que chamamos de curadoria de dados.
A preocupação quanto a ética repousa nos dois processos, porquanto em nossa era de direitos temos observado que a inovação irresponsável corrompe direitos, especialmente o direito à privacidade.
Então, a harmonia entre ética e inteligência artificial é fundamental para os limites sociais que se pretende com o uso das novas tecnologias. E ao contrário do que muitos pensam, o avanço tecnológico jamais colidiu com a integridade ética, antes revelou-se fundamental para a perenidade de seu uso em sociedade.
O IMPACTO DA RECOMENDAÇÃO DA OCDE
No dia 22 de maio de 2019 a Organização de Cooperação pelo Desenvolvimento Econômico divulgou um importante documento, descrevendo limites éticos para o uso de inteligências artificiais.
O impacto do documento é importante pois trata-se de um primeiro esboço intergovernamental sobre o uso de inteligências artificiais e a promoção dela sob os ideais democráticos e proteção aos direitos humanos.
Os cinco valores base foram definidos como:
- Sustentabilidade no desenvolvimento, crescimento inclusivo e bem-estar
- Imparcialidade e centralidade no controle humano
- Transparência e hábil a justificar lógicas no processo decisório
- Robustez quanto a segurança e justiça na decisão automatizada
- Responsabilidade e Prestação de contas do controlador do dado
Além dessas premissas, a recomendação preocupou-se em propor que as políticas nacionais ou firmadas por entes e classes privadas adotem os seguintes parâmetros ao uso de IA:
- Investimento em pesquisa e desenvolvimento da tecnologia de IA
- Fomento no ecossistema digita para IA
- Construção de políticas específicas para IA
- Capacitação humana, profissional para preparação da transformação digital do mercado
- Cooperação internacional para o desenvolvimento e manutenção da tecnologia
IMPACTOS ÉTICOS
No ano de 2016 a mesma OCDE havia preparado um documento listando as preocupações do uso da tecnologia de inteligência artificial sem qualquer premissa, e vimos que o trabalho ao longo de três anos, surtiram nas cinco recomendações para o desenvolvimento da tecnologia.
Naquele documento passado, destaque-se as preocupações quanto ao desemprego, distribuição de renda e a estupidez artificial.
- Desemprego
O desemprego foi listado em razão de que o aumento da tecnologia aumentará a exigência de candidatos qualificados a tarefas estratégicas, à medida que o trabalho repetitivo será escasso.
Então, a transposição operacional para o estratégico, aumentará as taxas de desemprego e desfavorecerá os menos instruídos.
Outro ponto citado na reflexão de 2016 foi a relação que o ser humano terá com o seu tempo livre, porquanto as máquinas darão aos humanos o recurso escasso que é o tempo livre.
A civilização humana por séculos vende o seu próprio tempo em troca de receber prestação pecuniária que suporte o sustento próprio e o de sua família.
A transição a realidade da chamada sociedade pós-trabalho oportunizará aos cidadãos a ressignificarem as razões da própria existência, diametralmente oposto a venda do tempo.
Por fim, a transição incorrerá no questionamento dos sucessores quanto as barbáries de comercializar o próprio tempo somente em troca de dinheiro e sustento.
- Desigualdade
O sistema econômico baseia-se no cálculo da hora de trabalho e tributos que deverão ser recolhidos ao Estado. Este coeficiente é chamado de “hora trabalho”. A maioria das empresas usa o coeficiente (valor hora de trabalho) para precificar o seu serviço ou produto.
O uso de inteligência artificial reduzirá a despesa das companhias com trabalhadores e a distribuição de receitas ficará concentrada em poucas pessoas. De outro lado, os empreendedores de IA serão os novos receptores das receitas que outrora eram de trabalhadores.
Naturalmente a lacuna entre ricos e pobres aumentará entre a população mundial. O exemplo dado no relatório reflexivo apoia-se que três empresas de Detroit, com inúmeros funcionários, tributos e outros custos fixos trouxe a mesma lucratividade de uma startup de tecnologia da região do Vale do Silício.
O ponto de reflexão é que na sociedade pós-trabalho e o uso de inteligência artificial serão necessários a implantação de políticas sociais para corrigir a curva do desenvolvimento e inovação, especialmente quando tais alterarão a estrutura econômica da sociedade atual.
- Estupidez Artificial
Para os cinéfilos, o filme “Idiocracy, 2005”, retrata uma sociedade futurista, altamente tecnológica que perpassa por seres humanos idiotizados e sem capacidade de raciocínios básicos pela dependência tecnológica.
A cada dia que passa, a inovação deixa de lado o trunfo principal dos seres humanos: a possibilidade de reinventar-se para alcançar mais por menos. Embora atualmente as soluções de bots sejam facilmente enganadas por nossa habilidade humana em confundi-las, o aprendizado transferirá tais habilidades, com a desvantagem de que a velocidade de raciocínio de uma máquina é superior a de um humano.
Nós já testemunhamos o poder que as máquinas possuem em capturar a atenção de humanos através de gatilhos mentais de percepção e fascínio, como é o caso dos vídeos games e de iscas de anúncios (click-bait).
Então a tecnologia, se usada por premissas benéficas a sociedade humana estimulará comportamentos benéficos a todos. De outro lado, poderá viciar e escravizar seres humanos.
PRECAUÇÃO E LEI GERAL DE PROTEÇÃO DE DADOS
Em excelente artigo científico[3] escrito pelos autores Bruno Ricardo Bioni e Maria Luciano, foi admitido um empréstimo do princípio da precaução, muito utilizado em questões de meio ambiente para o mundo da inovação e tecnológica.
Em resumo, o artigo propõe que o uso do princípio da precaução reconheceria a assimetria de poder e de informação dos processos de avaliação regulatória e ajudaria a remodelar diferentes conhecimentos dos diversos atores envolvidos e afetados por esses processos.
Além disso, assumiria compromissos com a deliberação e prestação de contas, assegurando justificações explícitas e cuidadosas sobre as escolhas regulatórias feitas diante de um conhecimento ainda incompleto.
Deste cenário surge as reflexões sobre a Lei Geral de Proteção de Dados e a revisão das decisões automatizadas proposta no artigo 20 da citada lei[4].
Os autores sustentam que o Relatório de Impacto, deverá conter os caminhos lógicos que o recurso de IA estabeleceu para a tomada de decisão automatizada, sem olvidar a possibilidade do usuário requerer explicações caso sinta-se lesado quanto ao seu potencial direito de pertencer a um determinado grupo econômico ou social que a decisão perfilizada o deixou de fora.
A LGPD não apresentou qualquer solução prática, o que nos leva a pensar que caberá ao detentor da tecnologia demonstrar a Autoridade Nacional de Proteção de Dados (ANPD) um relatório de impacto específico sobre a situação informando as premissas lógicas utilizadas para o aprendizado da máquina e a tomada de decisão extraído do recurso através de IA.
No artigo, há menção a um projeto de lei norte americana que projeta o tipo de relatório de impacto quando houver decisão automatizada por um algoritmo de IA, mas sem conclusões até o fechamento deste artigo[5].
A atual formatação da lei geral de proteção de dados, embora pudesse cuidar de novas tecnologias com maior rigor, poderá constituir um vetor protetivo sobre a aplicação de IA em processos decisórios, especialmente para esclarecer ao titular do dado quais foram os parâmetros utilizados, evitando o desconforto social visto hoje em dia quanto a restrições de empresas ao uso de serviços ou aquisição de produtos sem o detalhamento das justificativas.
CONCLUSÃO
Embora a matéria não estimule inovadores a pensar os modelos de contratação de inteligência artificial, faz-se a nossa, a responsabilidade de promover que o uso da tecnologia importa em construir uma curadoria de dados eficiente a evitar os desvios naturais que uma máquina em aprendizado possa proporcionar a sociedade.
É incontestável que os parâmetros sociais e econômicos serão outros daqui vinte anos. No entanto, a transformação da sociedade prescinde de uma lógica razoável entre os humanos afim de que a própria tecnologia não caia em desuso pela inexperiência dos inovadores frente a uma sociedade que requer mudanças, mas resistente aos solavancos que parecem inevitáveis.
Estamos diante de um momento histórico, cuja preocupação é o estabelecimento de valores para que a tecnologia seja utilizada em amplitude.
Mais do que isso, é reconhecer que a própria invenção humana ressignificará o papel do homem em sociedade, sem descuidar que esses titulares preservem o que por ora nos é impensável abdicarmos: os direitos humanos.
BIBLIOGRAFIA
GILLESPIE, Tarleton. The relevance of algorithms. In (Ed.), Media Techonologies: Essays on Communication, Materiality and Society. Cambridge: The MIT Press, 2014.
https://www.theverge.com/2019/3/28/18285178/facebook-hud-lawsuit-fair-housing-discrimination
BIONI, Bruno Ricardo; LUCIANO, Maria. O Princípio da precaução na regulação de inteligência artificial: seriam as leis de proteção de dados o seu portal de entrada?
ZANATTA, Rafael. A proteção de dados pessoais como regulação do risco: uma nova moldura teórica? In: I encontro da rede de pesquisa em Governança da Internet. Rio de Janeiro: Rede de Pesquisa em Governança da Internet, 2018, p.175-193.
QUELLE, Claudia. Privacy, Proceduralism and Self-regulation in data protection law, Rochester, NY: Social Science Research Network, 2017, p.96.
DATA & SOCIETY. Algorithmic Accountability: A primer, 2018.
[1] Profiling
[2] GILLESPIE, Tarleton. The relevance of algorithms. In (Ed.), Media Techonologies: Essays on Communication, Materiality and Society. Cambridge: The MIT Press, 2014.
[3] O princípio da precaução na regulação de inteligência artificial: seriam as leis de proteção de dados o seu portal de entrada?
[4] Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. (Redação dada pela Medida Provisória nº 869, de 2018).
- 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão
automatizada, observados os segredos comercial e industrial.
- 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.
[5]https://www.wyden.senate.gov/imo/media/doc/Algorithmic%20Accountability%20Act%20of%202019%20Bill%20Text.pdf
FONTE: HTTPS://WWW.RODRIGUEZALVAREZ.COM.BR/BLOG/INTELIG%C3%AANCIA-ARTIFICIAL-%C3%A9TICA-E-LGPD
Reflexões importantes, não é mesmo?
Como temos que avançar no conhecimento que temos destes assuntos para que possamos ter um nível decisório adequado e eficiente. Estudar é imperioso!
E o que você tem feito a respeito?
Camarão que dorme a onda leva! Bora aprender e executar, posto que diz um ditado budista que ” Saber e não fazer, é ainda não saber”.
#FraternoAbraço
Gustavo Rocha
Consultoria GustavoRocha.com | Gestão, Tecnologia e Marketing Estratégicos
Robôs | Inteligência Artificial | Jurimetria
(51) 98163.3333 | gustavo@gustavorocha.com | www.gustavorocha.com
Deixe uma resposta
Você precisa fazer o login para publicar um comentário.