Nick Bostrom: “Não Teremos Uma Segunda Chance Com A Inteligência Artificial”
Nick Bostrom (Helsingborg, Suécia, 1973) é uma das vozes mais autorizadas a tratar sobre os perigos de os avanços tecnológicos do nosso tempo. Este filósofo dirige o Instituto para o Futuro da Humanidade e o Centro de Pesquisa de Estratégia de Inteligência Artificial da Universidade de Oxford, onde realiza como professor. Suas teorias a respeito do traço que representaria a constituição de uma superinteligencia pro universo têm influenciado o pensamento de figuras como Bill Gates ou Elon Musk. Quais são os principais riscos tecnológicos com os quais tem que lidar com a humanidade?
Depende do contexto temporal que temos em mente. Hoje, um de nossos principais temas de atenção sinaliza para que os nossos sistemas de dicas sejam transparentes e nos permitam certos níveis de privacidade. É muito essencial que vamos configurar acertadamente a nossa arquitetura de dado.
E se lançar a vista pro futuro? Nos deparamos com um tipo de preocupações inteiramente diferentes. Não é custoso pensar numa inteligência artificial que seja ainda mais robusta, cujos objetivos não estejam perfeitamente alinhados com os objetivos humanos. E o desafio aqui consiste em ter a tecnologia que nos torne capazes de projetar esses poderosos sistemas artificiais alinhados com os valores humanos e que façam a todo o momento o que nós desejamos que eles façam. É a inteligência artificial, nossa única ansiedade a comprido período?
Existem novas áreas que bem como têm um vasto potencial risco pra humanidade. A biotecnologia seria uma delas. Se soubermos como fazer melhores ferramentas para manipulação de vírus, bactérias e outros microrganismos, faríamos possível a construção de agentes de projeto, que poderia usar algum grupo terrorista pra montar um novo tipo de doença.
- 23 de Fevereiro – 08:00
- Desenvolvedor: Google
- 1 Vida, até 1964
- Era imprescindível envolver o indígena e não o ladino
- 97 Reversão Foto Burj Khalifa
Com cada novo avanço técnico nos vamos aproximando, esses cenários e, à medida que a tecnologia amadurece, cresce o seu potencial destrutivo. Você Considera que estamos avançando muito veloz, como comunidade? Não há dúvida que cada vez que realizamos uma enorme descoberta, estamos colocando a mão numa urna cheia de bolas e tirando uma.
Com cada bola que tiramos, vamos alcançando o progresso social. Toda a história da humanidade tem-se baseado no método de fazer estes inventos. A questão é que algumas destas bolas são benéficas, contudo há novas que são capazes de ser perigosos.
Imagine o que aconteceria se uma das bolas que tiramos é uma tecnologia que significa, invariavelmente, a destruição da civilização que a descobriu. O problema por aqui é que ainda não descobrimos uma maneira de reverter a meter a bola na urna se você não gosta da gente: uma vez que se tem inventado uma tecnologia, não poderá “desinventarse”.
o tirámos já alguma destas bolas? Não é trabalhoso fantasiar como seria. Pense, a título de exemplo, o que aconteceria se o desenvolvimento de armas nucleares teria sido possível, com instrumentos menos difíceis de adquirir. Como Podemos evitar que a inteligência artificial terminar sendo uma destas tecnologias? Se a inteligência artificial acaba sendo apto de fazer tudo ou boa fração do nosso trabalho intelectual mais do que nós, teremos em nossas mãos o último invento que vai ter que fazer a humanidade. O defeito está pela mudança pra era da inteligência artificial: carecemos fazer bem à primeira, já que não acho que tenhamos uma segunda chance.
Se desenvolvemos uma inteligência artificial que não está parelha com nossos propósitos, não acho que possamos retornar a enfiar essa bola na urna e começar do zero. Não somos muito bons como civilização antecipando problemas difíceis que ainda não nos causaram nenhum prejuízo. Devemos impulsionar nossos esforços para fazer com que isto funcione desde o começo. Esta é a extenso complexidade pra nossa civilização.