Robôs com inteligência artificial: uma discussão ética?



Robôs com Inteligência Artificial já não são mais personagens de ficção científica. Eles estão profundamente integrados na rotina de milhões de pessoas e milhares de empresas e indústrias, dos mais diversos ramos e setores. Quem ainda não conversou com um chatbot ou foi atendido por um robô no telefone?


Em tempos onde a comunicação e a interação está drasticamente sendo alterada e ressignificada, com robôs com inteligências artificiais assumindo rostos, personificações e expressões cada vez mais humanas, questões muito humanas são postas em evidência.


Existe alguma ética que controle as ações e “pensamentos” desses sistemas inteligentes? Até que ponto o fator humano se aplica a eles? Quem deve ser punido em caso de desvio de conduta?


Essas questões são baseadas em tomadas de decisões enviesadas e algumas polêmicas causadas por robôs ou sistemas de IA, como reproduções de falas preconceituosas, por exemplo.


Para as pessoas que se depararam com essas situações, os critérios usados por esses sistemas inteligentes não pareceram claros o suficiente. Algumas empresas responsáveis pelos sistemas tentaram contornar a questão, mas até então não havia uma centralização do tema, internacionalmente falando.


Em 2019, a União Europeia deu o primeiro passo para criar um modelo aplicável globalmente e que enquadrasse todas as empresas desenvolvedoras de sistemas de inteligência artificial.


LEIA TAMBÉM:



Modelo internacional em relação aos robôs com inteligência artificial

Com isso, a UE estabeleceu sete pontos para definir se uma inteligência artificial é confiável ou não:


  1. Supervisão humana: Toda Inteligência Artificial precisa permitir que haja intervenção humana em seu funcionamento. Ao invés de diminuir a autonomia humana, a IA precisa garantir a liberdade e a igualdade dos seres humanos através de suas ações;

  2. Solidez e segurança: Os sistemas precisam ser confiáveis, seguros e ter firmeza e solidez para lidar com adversidades e erros ou inconsistências durante seu funcionamento. Esse é um dos maiores desafios para os desenvolvedores, atualmente: criar algoritmos capazes de entender melhor questões complexas e responder rapidamente a imprevistos e situações fora do padrão. 

  3. Privacidade e proteção de dados: A Inteligência Artificial precisa ser transparente e fornecer pleno acesso aos dados individuais dos usuários, assim como garantir sua privacidade e segurança em situações onde as informações pessoais podem ser usadas para prejudicá-los ou discriminá-los.

  4. Transparência: Todas as ações e decisões do sistema precisam ser claros, legíveis e compreensíveis para os públicos. Mesmo que sua programação seja complexa e técnica, as suas atividades precisam ser traduzidas para que os usuários sejam capazes de entendê-la totalmente em essência. 

  5. Acolhimento à diversidade: Os sistemas precisam englobar e entender o ser humano. Isso inclui compreender e aceitar a diversidade, em todos os seus aspectos. Dessa maneira, a IA precisa prezar pela inclusão, aceitação e acessibilidade para os mais diversos públicos e seres humanos. 

  6. Bem-estar social: A Inteligência Artificial precisa ser um recurso e uma ferramenta para auxiliar o ser humano e a humanidade. É preciso empregá-la para produzir mudanças sociais significativas e benéficas para a população, sem descuidar das responsabilidades sociais, ecológicas e sustentáveis.

  7. Prestação de contas: Em caso de erros ou mal-funcionamento dos sistemas, é necessário haver uma forma de prestar contas aos usuários. Dessa forma, os desenvolvedores competentes podem ser responsabilizados pelos resultados e consequências do mau funcionamento da IA. 

Aplicação e futuro do modelo


O modelo foi criado com a ajuda de 52 especialistas no tema, entre acadêmicos, órgãos setoriais e empresas como Google, Bayer, Santander e SAP. Por se tratar de um modelo ainda em teste, os pontos levantados não possuem força de lei.


No entanto, devem servir de orientação para os desenvolvedores de plataformas e sistemas de Inteligência Artificial, apesar de não haver punição ou restrição em caso de não adesão ao modelo.


O objetivo da União Europeia é, contudo, expandir e aperfeiçoar o modelo para além dos países que compõem o bloco. A Comissão Europeia pretende levar a pauta para países asiáticos como Japão e Cingapura, grandes expoentes nesse ramo tecnológico e importantes fornecedores e exportadores de sistemas inteligentes globalmente. Além disso, a pauta também deverá ser discutido com o G7 e o G20, do qual o Brasil faz parte.


O projeto-piloto será avaliado em 2020 por especialistas em Inteligência Artificial para que possam ser discutidos os próximos passos. Cada um dos pontos será analisado, separadamente e em conjunto, para uma percepção mais acurada da viabilidade e aplicabilidade do modelo e identificação de melhorias e mudanças.


Por que isso é importante?


A rotina humana já incorporou os sistemas inteligentes tão profunda e naturalmente que quase não se nota mais quando estamos lidando com outros humanos ou não. Dessa forma, os procedimentos precisam ser revistos para adequar a atividade desses sistemas ao padrão aceito na sociedade humana.


Do mesmo modo que humanos precisam seguir regras de comportamento e conduta, também precisam os robôs. Sendo todos os sistemas inteligentes criados e desenvolvidos, desde a primeira linha de código, pela inteligência humana, é necessário haver uma padronização na linha de conduta a ser seguida por esses programadores. Assim, os erros são reduzidos e os escopos são aumentados.


Casos como a inteligência artificial da Microsoft que reproduziu comentários preconceituosos e sexistas no Twitter devem servir de exemplo. Assim, esses erros não se repetem e podem ser levados em consideração no futuro. 


Só assim os robôs com inteligência artificial deixarão de ser vistos com desconfiança, garantindo segurança e conforto para a humanidade, como é de seu propósito.


#éticanatecnologia #inteligênciaartificial #Sistemasinteligentes