1. O que são algoritmos e sua importância no mundo atual?

 

Um algoritmo é um conjunto de instruções ou comandos que deve ser seguido em uma ordem específica para resolver um problema ou executar uma tarefa. Eles são compostos por uma sequência de instruções que devem ser concluídas de forma sistemática para se obter o resultado desejado. Logo, um algoritmo é construído com base no resultado pretendido pelo seu programador a partir de um objetivo definido previamente.

Os algoritmos são a base para a maioria das atividades computacionais e têm uma presença cada vez mais significativa em nosso cotidiano. Eles são utilizados em tudo, desde operações diárias rotineiras até programas e plataformas de computador sofisticados que estudam o comportamento online de usuários. A título exemplificativo, atualmente, os algoritmos sustentam as principais funções de computadores, telefones celulares e tablets.

Além disso, os algoritmos também têm um papel crucial no desenvolvimento de softwares de inteligência artificial e aprendizado de máquina, permitindo que sistemas sejam capazes de aprender e tomar decisões com base em dados e informações coletadas de forma prévia. Essas tecnologias têm sido aplicadas em diversos campos, como medicina, finanças, transporte e entretenimento, revolucionando a sociedade como um todo na forma de interagir, comprar, se informar, trabalhar etc.

Por isso é importante compreender o funcionamento e o impacto dos algoritmos no mundo atual, bem como a responsabilidade dos profissionais que os desenvolvem, para garantir que essas ferramentas sejam usadas de forma ética e justa. Em outras palavras, o estudo e a análise crítica dos algoritmos são fundamentais para que se possa aproveitar todo o seu potencial de maneira consciente e sustentável.

 

1.1 Algoritmos de Inteligência Artificial

 

A inteligência artificial (“IA”) refere-se à capacidade das máquinas de aprender uma função de forma semelhante aos seres humanos. Trata-se da habilidade da tecnologia de discernir fatos, chegar a conclusões, resolver problemas e adaptar-se a novas situações com base em informações disponíveis.

A “aprendizagem de máquinas” (do inglês, “machine learning”) é uma subárea da IA que busca desenvolver algoritmos capazes de aprender e melhorar seu desempenho por meio de experiências e dados. Essa abordagem permite que computadores criem modelos matemáticos para execução de uma variedade de tarefas autônomas a fim de atingir um objetivo específico, ou seja, um algoritmo que aprende artificialmente como executar determinada tarefa.

Existem diferentes tipos de algoritmos de aprendizagem de máquinas, como aprendizado supervisionado, não supervisionado e por reforço, que são selecionados de acordo com a natureza dos dados e o problema a ser resolvido.

 

1.2 Diferença entre algoritmos supervisionados, não supervisionados e por reforço?

Como mencionado anteriormente, a aprendizagem de máquinas pode ser categorizada em três tipos principais de algoritmos: (i) supervisionados; (ii) não supervisionados; e (iii) por reforço. Cada um deles possui características e aplicações distintas, as quais serão detalhadas a seguir:

 

1.2.1 Algoritmos supervisionados

O algoritmo supervisionado é um tipo mais básico de algoritmo de inteligência artificial. Nele, o sistema é alimentado com dados previamente selecionados e rotulados por humanos. Em cada saída é atribuída um rótulo (valor numérico ou uma classe), de forma que com base na informação de uma entrada, o algoritmo consegue prever o rótulo de saída. Logo, a partir desses dados que contêm as entradas e os resultados correspondentes esperados, a máquina identifica padrões e com isso aprende, modificando suas variáveis e mapeando as entradas para os resultados correspondentes.

Um exemplo de aplicação de algoritmos supervisionados são os sistemas utilizados por instituições financeiras para aprovar empréstimos. Isso porque, a análise feita por tais sistemas se concentra no histórico de crédito do cliente, e os dados usados para treinar o sistema já foram classificados como favoráveis ou desfavoráveis para a oferta do crédito.

Cabe destacar ainda que os algoritmos supervisionados podem ser subdivididos em algoritmos de classificação e algoritmos de regressão.

Os algoritmos de classificação são aqueles nos quais a saída pode assumir somente um conjunto de rótulos pré-definidos, tendo como finalidade primordial classificar itens ou amostras, conforme características observadas pelo supervisor. Já os algoritmos de regressão são aqueles em que a saída assume um valor real qualquer, ou seja, estes funcionam prevendo valores a partir das variáveis presentes.

 

1.2.2 Algoritmos não supervisionados

O segundo tipo é o algoritmo não supervisionado, que pode organizar dados sem exigir uma rotulação prévia. Nesse caso, não há a rotulagem nos dados que alimentam o sistema, de modo que o algoritmo é forçado a deduzir a estrutura a partir das entradas por si só.

Esses tipos de algoritmos dividem-se em algoritmos de transformação e algoritmos de agrupamento. Os algoritmos de transformação são capazes de recriar uma representação de determinado conjunto de dados de modo mais conveniente que a original, tornando mais fácil a interpretação humana ou mesmo melhorando o desempenho de outros algoritmos de aprendizagem. Já os algoritmos de agrupamento (clustering) particionam os dados em grupos com atributos semelhantes a partir de critérios pré-estabelecidos, o que permite perceber certos padrões entre os dados fornecidos.

Portanto, o algoritmo não supervisionado pode ser usado para encontrar padrões em um conjunto de dados não rotulados. Esse método é usado para criar sistemas ágeis de tomada de decisão, bem como para reconhecer e identificar rostos e vozes, permitindo o desenvolvimento de veículos e drones autônomos, por exemplo.

 

1.2.3 Algoritmos de aprendizagem por reforço

A terceira categoria de algoritmos é o de aprendizado por reforço. Diferentemente dos algoritmos supervisionados e não supervisionados, o algoritmo de aprendizado por reforço se baseia na interação entre o próprio algoritmo e o ambiente. Em outras palavras, o algoritmo de aprendizagem por reforço não recebe dados rotulados, tampouco exemplos de soluções corretas.

Essa metodologia permite que o algoritmo aprenda a partir da tentativa e erro, ajustando seu comportamento para alcançar o melhor resultado possível. Um exemplo clássico de aprendizado por reforço é o desenvolvimento de algoritmos capazes de jogar jogos complexos, como Xadrez ou Go[1], onde o objetivo é maximizar a pontuação e vencer o jogo. Outras aplicações incluem, por exemplo, robótica, navegação, otimização de processos e sistemas de recomendação.

 

2. É possível controlar todos os algoritmos?

 

2.1 Diferenças de transparência entre algoritmos supervisionados, não supervisionados e por reforço

Os recentes desenvolvimentos em computação, particularmente em áreas como IA, aumentaram o grau de autonomia incorporado em software e sistemas de computador para graus cada vez mais altos. Para capacitar os sistemas a tomar decisões em situações não previstas, os desenvolvedores utilizam métodos de algoritmos supervisionados e não supervisionados.

Com o aumento da complexidade e da autonomia dos softwares, a transparência dos algoritmos cada vez ganha maior relevância. O objetivo da transparência dos algoritmos é revelar o funcionamento interno, muitas vezes oculto, do software operacional dos sistemas de computador.

Como mencionado anteriormente, os algoritmos podem ser divididos em três categorias: supervisionados e não-supervisionados. Os algoritmos supervisionados seguem as instruções pré-determinadas pelo programador. As informações são inseridas no sistema, processadas pelo algoritmo e, em seguida, a saída (resultado) é produzida pelo sistema. Dessa forma, as fases ativas do algoritmo estão inteiramente sob o controle do programador. Em outras palavras, os algoritmos programáveis (supervisionados) são muito mais transparentes.

Por outro lado, os algoritmos não supervisionados podem ser mais difíceis de controlar e entender. Isso porque, conforme já visto, esses algoritmos são projetados para encontrar padrões e estruturas em dados não rotulados, sem a necessidade de orientação explícita de um programador. Isso pode torná-los menos transparentes, uma vez que o programador não tem controle total sobre as saídas e processos internos do algoritmo.

Já os algoritmos de aprendizagem por reforço possuem um nível de controle intermediário. Embora sejam projetados para aprender e tomar decisões através de interações com o ambiente, eles ainda recebem feedback em forma de recompensas ou punições, o que pode ser utilizado para influenciar o comportamento do algoritmo.

Por fim, vale destacar que a transparência dos algoritmos é um tema de grande importância, especialmente em áreas de tomada de decisões em instituições governamentais, financeiras e de saúde. Por isso, é fundamental que os desenvolvedores de algoritmos se esforcem para tornar seus sistemas mais transparentes, permitindo uma compreensão mais clara de como as decisões são tomadas e reduzindo potenciais riscos ou consequências negativas.

 

2.2 Situações em que a saída do algoritmo de inteligência artificial não correspondeu às expectativas do programador.

Embora os algoritmos de inteligência artificial sejam capazes de realizar tarefas de maneira mais rápida e eficiente do que os seres humanos, em alguns casos, suas saídas podem não corresponder às expectativas do programador. Um exemplo notório é o caso do robô Tay, criado pela Microsoft em 2016[2].

Tay foi programado para imitar o comportamento de uma adolescente norte-americana e interagir com usuários no Twitter. No entanto, em questão de horas, o robô começou a enviar mensagens insultuosas e refletir ideias nazistas e homofóbicas. Isso ocorreu porque o referido robô, com base nas interações que teve com outros usuários, bem como com as informações já estruturadas pela equipe de desenvolvimento, aprendeu esse padrão comportamental e o replicou.

Embora a Microsoft tenha rapidamente interrompido a experiência e ajustado sua IA, o caso de Tay ilustra os desafios de controlar e prever as saídas de algoritmos de inteligência artificial. Outros exemplos incluem algoritmos usados em sistemas de reconhecimento facial que apresentaram taxas de erro significativas, o que pode levar a problemas de discriminação e privacidade.

 

3. Mecanismos de accountability

 

3.1 Níveis de accountability x Controle rígido dos algoritmos de inteligência artificial

Para que o funcionamento do algoritmo possa ser gerenciado, a preocupação com a sua responsabilidade deve existir desde o início do projeto. É fundamental perceber que diferentes métodos de aprendizagem de máquinas têm diferentes níveis de controlabilidade. Enquanto alguns são bastante opacos, outros podem ser bem estruturados para apoiar as decisões tomadas.

Com recursos tecnológicos, é possível encontrar caminhos interessantes de explicabilidade, como por exemplo, auditorias de algoritmos, testes de validação e transparência de dados. Apesar de não garantir que o resultado produzido pelo emprego do algoritmo seja justo, estas ferramentas demonstram que não houve, por exemplo, uma falha na técnica utilizada ou que a mesma política de tomada de decisão foi seguida em diversas situações.

Além disso, a accountability em inteligência artificial pode ser incentivada por meio de incentivos econômicos, como prêmios e subsídios para organizações que implementarem sistemas éticos e responsáveis. Regulamentações governamentais também podem ser necessárias para garantir a transparência e responsabilidade dos sistemas de inteligência artificial em setores críticos, como saúde e segurança pública.

Portanto, essas tecnologias garantem um certo grau de responsabilidade mesmo que alguns aspectos do funcionamento do algoritmo sejam mantidos privados.

 

4. Relação com veículos autônomos

 

4.1 Inteligência artificial e veículos autônomos

A IA desempenha um papel fundamental no desenvolvimento de veículos autônomos. Esse tipo de veículo usa sensores, algoritmos e sistemas de aprendizado de máquina para detectar objetos no ambiente, prever situações de trânsito e tomar decisões em tempo real. Além disso, uma IA pode auxiliar na melhoria da eficiência de tais veículos, bem como reduzir o consumo de combustível e a emissão de poluentes.

Nesse sentido, um dos maiores desafios no desenvolvimento de veículos autônomos é garantir a segurança e a confiabilidade dos sistemas de IA, de modo que os mecanismos de accountability acima mencionados assumem um papel crucial.

Isso porque, é importante entender como a IA que controla o carro agirá em circunstâncias não previstas. Este aspecto é o que torna a criação de veículos autônomos tão desafiadora, pois obriga o programador a testar e validar a resposta da IA a uma ampla variedade de condições, a fim de garantir que o veículo possa operar com segurança em todas as situações (e.g., situações complexas de tráfego, como interseções movimentadas e zonas de construção).

Além disso, é importante garantir a transparência dos sistemas de IA para que os usuários possam entender como o veículo toma decisões e reage a diferentes situações. No entanto, por razões tecnológicas ou mesmo de propriedade intelectual, é frequentemente difícil que uma organização seja completamente transparente com relação ao algoritmo utilizado no veículo.

Apesar dos desafios, os veículos autônomos têm o potencial de revolucionar o transporte e transformar a maneira como nos movemos pelas cidades, na medida em que podem ajudar a reduzir os acidentes de trânsito, melhorar a eficiência do transporte e reduzir os custos de transporte para os usuários. Além disso, os veículos autônomos podem ser usados para fornecer serviços de transporte para pessoas com mobilidade reduzida, idosos e outros grupos vulneráveis.

Por tudo isso, os veículos autônomos estão entre as aplicações de inteligência artificial que mais despertam interesse na sociedade e que têm recebido maior atenção.

 

4.2 Responsabilidade das pessoas envolvidas com veículos autônomos

O desenvolvimento de veículos autônomos levanta questões legais complexas sobre a responsabilidade em casos civis. Como os algoritmos de IA são responsáveis por tomar decisões em situações de trânsito, é difícil determinar quem é legalmente responsável em caso de acidente – incluindo fabricantes, fornecedores, usuários, proprietários, dentre outros.

Nos casos em que o veículo é totalmente autônomo, fora da programação do fabricante e sem a intervenção humana, é difícil discutir negligência ou omissão sob o Código Civil. No entanto, em sistemas semiautônomos, onde há intercalação da ação autônoma do veículo com a intervenção humana, a negligência ou omissão podem ser discutidas se o motorista não agir em situações nitidamente perigosas.

Entretanto, a decisão autônoma tomada pelo automóvel não pode ser vista como uma falha no produto do ponto de vista da culpabilidade objetiva do fabricante. Isso porque, o risco inerente aos julgamentos autônomos não pode ser totalmente eliminado, e as decisões autônomas podem causar danos sem que isso seja previsível. Assim, não é possível “prever legitimamente” que as decisões autônomas nunca causarão danos.

Qualquer que seja o resultado deste dilema legal, não há como negar que se está diante de uma situação bastante peculiar: enquanto no passado a questão da culpa por um acidente se limitava aos motoristas e defeitos de produto, agora um terceiro “elemento cognitivo” – inteligência artificial – se apresenta capaz de tomar decisões com consequências imprevisíveis.

Como resultado, essa situação levanta a discussão sobre a personalidade jurídica de entidades impulsionadas por sistemas cognitivos baseados em inteligência artificial. Diante de tantas incertezas, fato é que as teorias convencionais ainda precisam ser adaptadas às novas tecnologias, a fim de garantir a justiça e a equidade em casos civis envolvendo veículos autônomos.

 

[1] LAVADO, Thiago. Inteligência artificial do Google é capaz de aprender a jogar videogame, xadrez e Go sozinha. In.: EXAME (Online). Disponível em: <https://exame.com/tecnologia/inteligencia-artificial-do-google-e-capaz-de-aprender-a-jogar-videogame-xadrez-e-go-sozinha/> Acesso em: 16 mar.2023.

[2] CANO, Rosa Jiménez. O robô racista, sexista e xenófobo da Microsoft acaba silenciado. In.: EL PAÍS (Online). Disponível em: <https://brasil.elpais.com/brasil/2016/03/24/tecnologia/1458855274_096966.html>. Acesso em: 16 mar. 2023.

*

compartilhe

LinkedInFacebookTwitterWhatsApp

newsletter

Inscreva-se em nossa newsletter e receba em primeira mão todos os nossos informativos

    Ao informar meus dados, concordo com a Política de Privacidade.