Matéria

Quais são as regras básicas para a Inteligência Artificial?

Ultimamente tem se falado muito sobre IA (Inteligência Artificial). Um dos motivos é porque ela já é capaz de gerar conteúdo por conta própria. Existem projetos que permitem criar texto a partir de poucas palavras e até criar imagens automaticamente. A inteligência artificial é o ingrediente essencial para assistentes de voz, carros autônomos, robótica e muitas outras áreas do conhecimento. Mas sob quais regras a IA opera?

A inteligência artificial, como qualquer programa de computador, possui regras que definem como ela irá se comportar. Agora e no futuro. As regras de uma IA influenciarão como essa mesma inteligência evoluirá por meio de aprendizado de máquina e/ou aprendizado profundo. Vamos lá, cabe ao programador ou criador da IA ​​te dizer o que ela pode ou não fazer. Algo como as três leis clássicas da robótica de Isaac Asimov, que aparecem em muitos de seus romances e contos.

Enquanto as leis da robótica eram padrão no universo fictício de Asimov, no mundo ao nosso redor não temos regras padronizadas de IA. Pelo menos por enquanto. Em 2017, cerca de 100 especialistas em inteligência artificial publicaram uma carta aberta à ONU para um compromisso de banir a tecnologia baseada em IA para criar robôs de guerra. Algo que nos parece muito distante, mas no qual trabalhamos há anos. Mas afinal o que dizem as grandes empresas de tecnologia e o mundo sobre isso?

Os princípios e regras da IA, de acordo com o Google

O Google é justamente uma das empresas que mais investe em inteligência artificial. Seu mecanismo de busca nasceu de um algoritmo que revolucionou a forma de encontrar páginas da web. E ao longo dos anos vem inovando com inúmeros produtos e serviços que todos conhecemos. Sua divisão de IA possui uma página dedicada aos seus princípios e aos objetivos ou regras que as IAs criadas em suas instalações devem ter. Ou, como diz a página deles, “acreditamos que a IA deveria…”:

  • Seja benéfico para a sociedade.
  • Evite criar ou reforçar preconceitos injustos.
  • Ser desenvolvido e testado usando práticas seguras.
  • Responsável perante as pessoas. Uma IA deve ser dirigida e controlada por humanos.
  • Incorporar princípios de privacidade.
  • Manter um alto nível de excelência científica.
  • Esteja disponível para usos que estejam de acordo com esses princípios.

Em resumo, as regras da IA, segundo o Google, estão focadas em beneficiar a sociedade, não causar nenhum dano (físico ou moral) e respeitar a segurança e a privacidade. Também afeta o respeito ao direito internacional e aos direitos humanos. Em particular, quando se trata de vigilância invasiva, uma questão em que países como a China percorreram um longo caminho usando inteligência artificial sob a cobertura de leis que seriam inconcebíveis na Europa.

Os princípios e regras da IA ​​responsável, de acordo com a Microsoft

Em 2016, o CEO da Microsoft, Satya Nadella, propôs dez regras para a IA. Seis para IA e quatro propostas ou necessidades para a sociedade futura. Basicamente, eles podem ser resumidos nesta lista concisa, à qual podem ser adicionadas nuances ou explicações mais aprofundadas.

  • Deve ajudar a humanidade e respeitar sua autonomia.
  • Há de ser transparente.
  • Deve maximizar a eficiência sem destruir a dignidade das pessoas.
  • Ser projetado para preservar a privacidade de forma inteligente.
  • Deve ter responsabilidade algorítmica.
  • Esteja protegido contra o preconceito.

Além dessas seis regras para a IA, a sociedade do futuro precisará desses quatro pilares em um mundo onde humanos e inteligência artificial coexistirão: ser empático, investir em educação, estimular a criatividade e, finalmente, julgamento e responsabilidade.

A Microsoft está atualmente trabalhando em diferentes projetos relacionados à inteligência artificial. Em sua variada documentação disponível na Internet, podemos encontrar os princípios ou regras de IA que a Microsoft propõe em seus projetos.

  • Equidade
  • Confiabilidade e segurança
  • Privacidade
  • Inclusão
  • Transparência
  • Responsabilidade

Inteligência Artificial no Mundo

A China e os Estados Unidos têm uma grande vantagem sobre a Europa e outros países em termos de inovação quando falamos de áreas tecnológicas como a inteligência artificial. Longe de querer ficar para trás, a União Europeia também quer ser uma referência em IA. E antecipando a importância que a IA terá na sociedade do futuro, em 2020, o Parlamento Europeu elaborou várias propostas de Regulamentos para a inteligência artificial dentro de suas fronteiras.

  • Garantir que a IA seja supervisionada por humanos.
  • Segurança, transparência e responsabilidade.
  • Que não seja baseado em preconceito, preconceito ou discriminação.
  • Responsabilidade social e igualdade de gênero.
  • Sustentabilidade ambiental.
  • Privacidade e proteção de dados.

Enfim, a União Europeia, EUA e muitos outros países tem os desafios, de facilitar às empresas e organizações públicas de investigação a realização de projetos para desenvolver a inteligência artificial e aplicá-la em qualquer campo possível. Mas, ao mesmo tempo, devem garantir os direitos dos cidadãos, especialmente em áreas tão delicadas como segurança, saúde ou setores como transporte, energia, sistema judiciário ou campo militar.

 

Fonte: https://blogthinkbig.com/

Share:
Translate » Traduzir