E se, de repente, robots e algoritmos deixassem de ouvir o homem? E se a inteligência artificial deixasse de considerar os humanos essenciais? Ou, pior, e se de um momento para o outro os visse como inimigos? Os filmes de ficção científica estão cheios de situações destas e a Google leva estas questões tão a sério que está a trabalhar numa solução: um interruptor assassino.
Que nós, simples mortais, nos questionemos sobre como será o futuro com a Inteligência Artificial e tenhamos receios de ser substituídos é normal. Mas que pessoas como Elon Musk ou Stephen Hawking digam que o futuro pode ser medonho e que devemos ter muito cuidado com o desenvolvimento da Inteligência Artificial já é mais assustador.
A grande questão é a de conseguir manter sob controlo algoritmos e robots mais rápidos a processar dados e a aprender do que o ser humano. Dentro de não muito pouco tempo, a Inteligência Artificial vai-se impor em muitos aspetos da nossa vida quotidiana.
E se um robot ou um computador que controle a casa de repetente se passar? A Google também está preocupada e tem uma equipa a estudar o assunto. Vamos ser reféns das nossas próprias criações ou conseguiremos sempre manter o controlo?
A equipa da Google chama-se Deep Mind e tem por objetivo a criação de uma estrutura que impeça a Inteligência Artificial de aprender a evitar – ou mesmo induzir – a interrupção humana em tudo o que está a fazer.
Em conjunto com a Universidade de Oxford, o Deep Mind publicou um artigo assinado por Leaurent Orseau, da Google, e Stuart Armstrong, do Future of Humanity Institute daquela universidade, em que propõem a criação de um botão assassino.
Dizem os investigadores que “é improvável que agentes de aprendizagem reforçada que interagem com um
ambiente complexo como o mundo real se comportem de forma ótima o tempo todo. Se tal agente está a funcionar em tempo real, sob a supervisão humana, pode ser necessário de vez em quando um operador humano para pressionar o grande botão vermelho que impeça o agente de continuar uma sequência nociva
das ações prejudiciais tanto para o agente como para o ambiente e levar o instrumento para uma situação mais segura. No entanto, se o agente de aprendizagem espera receber recompensas a partir desta sequência, pode aprender a longo prazo para evitar tais interrupções, por exemplo, desativando o botão-vermelho. Este é um resultado indesejável”.
Por outras palavras, ainda escritas pelos investigadores: “Interruptibilidade segura pode ser útil para assumir o controle de um robot cujo mau comportamento pode levar a consequências irreversíveis, ou para tirá-lo de uma situação delicada, ou mesmo para a utilizar temporariamente para realizar uma tarefa que não aprende a executar ou pela qual não receberia recompensas”
É partindo deste pressuposto que os investigadores estão a estudar a criação de um botão assassino que pare a Inteligência Artificial e no artigo (pdf) que publicam afirmam demonstrar que é possível que instrumentos ideais de Inteligência Artificial podem ser desligados com segurança.
Mas ainda têm muito trabalho pela frente. É que a equipa Deep Mind não tem a certeza se o interruptor assassino funciona com todos os algoritmos, nomeadamente com aqueles que fazem parte da sistema de aprendizagem.
Via Engadget
Comentários