O Google lançou uma série de diretrizes para a criação de "IA responsável"

Existem tantos aplicativos de inteligência artificial que tornam nossa vida diária muito mais fácil e produtiva. No ritmo da inovação, tudo pode ser feito com um único comando.

A IA está mais acessível para um número crescente de pessoas em todo o mundo, mas como essa tecnologia cria novas possibilidades de melhoria e ajuda diária, seus avanços também levantam questões sobre como ela funciona - por exemplo, que problemas pode causar se não for desenvolvida com responsabilidade.

Como o próprio nome sugere, é uma inteligência criada pelo homem, mas realizada por máquinas e que possui, em certa medida, as mesmas habilidades dos humanos: aprende, se aprimora e é capaz de funcionar em determinadas áreas.

Quando falamos sobre inteligência artificial, duas grandes escolas de pensamento se chocam: aqueles que pensam que é uma ferramenta, não mais, e aqueles que acreditam que é apenas uma questão de tempo até que se torne uma ameaça para a raça humana.

Conforme nossas capacidades e possibilidades de IA se expandem, tTambém veremos se ele será usado para fins perigosos ou maliciosos. É por isso que aqueles que veem essa tecnologia como uma ameaça a veem com desconfiança e temem o impacto que ela pode ter em suas vidas. Algumas personalidades famosas como Elon Musk estão entre eles.

O chefe da Tesla e da SpaceX já avisou mais de uma vez: IA superará habilidades cognitivas humanas. Musk acredita que esta tecnologia irá ameaçar os humanos no futuro, especialmente no local de trabalho.

É também por isso que sua empresa Neuralink está trabalhando em interfaces cérebro-máquina que serão inseridas no crânio para preparar a humanidade para um futuro "fatal" onde robôs a governarão. A verdade é que existem alguns filmes de ficção científica que também assustaram as pessoas, apresentando futuros distópicos em que a IA consegue controlar os humanos.

Os pesquisadores dizem que é improvável que uma IA exiba emoções humanas como amor ou ódio e que não há razão para esperar que a IA se torne intencionalmente agradável ou má.

Neste sentido, O Google está preocupado com o perigo que a IA pode representar quando você não desenvolve com cuidado e a forma como você interage com as pessoas. A IA deve aprender como um ser humano, mas permanecer eficiente e não se tornar uma máquina perigosa. O Google tem desempenhado um papel importante no desenvolvimento de IA.

Com seu programa de pesquisa do Pentágono, "Projeto Maven", a empresa "treinou" IA na classificação de objetos em imagens de drones. Em outras palavras, ensinou os drones a entender o que estão olhando.

O Google agora afirma que a inteligência artificial tem que conviver com preconceitos e a empresa quer fazer algo a respeito. Para fazer isso, o Google implementou programas apropriados sobre o assunto "IA responsável".

Dois dos fundamentos da IA ​​do Google são "ser responsável para com as pessoas" e "evitar criar ou reforçar preconceitos injustos". Isso inclui o desenvolvimento de sistemas de inteligência artificial interpretáveis ​​que colocam as pessoas na vanguarda de todos os estágios do processo de desenvolvimento, garantindo que preconceitos injustos que um ser humano possa ter não sejam refletidos nos resultados de um modelo.

De acordo com essa diretriz, o Google se esforça para desenvolver inteligência artificial de forma responsável e estabelece uma série de áreas de aplicação específicas que não irá perseguir, como não implementar inteligência artificial em tecnologias que podem causar danos ou ferimentos às pessoas.

Google fará o possível para garantir que as informações disponíveis por meio de modelos de IA ser precisos e de alta qualidade. Além disso, a tecnologia "deve ser responsável perante as pessoas, sujeita à direção e controle humanos".

Algoritmos de inteligência artificial e conjuntos de dados podem refletir, reforçar e reduzir preconceitos injustos. Nesse sentido, o Google se empenhará em evitar impactos injustos sobre as pessoas, especialmente aqueles relacionados a características sensíveis como raça, etnia, gênero, renda, nacionalidade ou crenças políticas ou religiosas, entre outras.

fonte: https://ai.google


Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.