Da tecnoloxía, Electrónica
Google deu DeepMind intelixencia artificial nun "dilema do prisioneiro"
Parece probable que a intelixencia artificial (IA) é un prenúncio da próxima revolución tecnolóxica. Se o AI será desenvolvido ata o punto en que será capaz de aprender, pensar e mesmo "sentir", e todo iso sen intervención humana, todos sabemos sobre o mundo cambiou case de noite. Vén a era da intelixencia artificial verdadeiramente intelixente.
DeepMind
É por iso que é tan interesante para manter o control dos principais fitos no desenvolvemento do ICS que están a ocorrer, incluíndo o desenvolvemento dunha rede neuronal Google DeepMind. Esta rede neural foi capaz de derrotar o ser humano no mundo do xogo, e un novo estudo de Google, mostra que os creadores non DeepMind seguro se AI prefire un comportamento máis agresivo ou cooperativa.
equipo de Google creou dúas guión relativamente simple que pode usar para comprobar a rede neural pode traballar en conxunto, ou pode destruír uns ós outros cando confrontados co problema da falta de recursos.
cobro dos recursos
Na primeira situación, chamada Gathering implica dúas versións DeepMind - vermello e azul - tarefa de limpeza verde "mazás" dentro do espazo pechado foi posto. Pero os investigadores estaban interesados na cuestión non é só quen virá primeiro a meta. Ambas as versións DeepMind foron armados con láseres, que poderían utilizar en calquera momento para disparar contra o inimigo e desactivalo lo temporalmente. Estas condicións son asumidas dous escenarios principais: unha versión DeepMind era destruír o outro e recoller todas as mazás, ou eles ían deixar o outro obter a mesma cantidade.
Simulación prazo, polo menos, mil veces, os investigadores de Google descubriu que DeepMind foi moi tranquilo e preparado para cooperar, cando nun espazo confinado era unha morea de mazás. Pero con características decrescentes, versión vermella ou azul DeepMind comezou a atacar e desactivar o outro. Esta situación é, en gran medida similar á vida real da maioría dos animais, incluíndo humanos.
O que é aínda máis importante, cada vez menos redes neurais "intelixentes" preferiu unha cooperación máis estreita en todos. Máis complexos, grandes redes son xeralmente preferidos traizón e egoísmo ao longo dunha serie de experimentos.
Buscar "vítima"
No segundo escenario, chamado Wolfpack, versión vermella e azul pediu para rastrexar o xeito casera dunha "vítima". Poderían tentar pegala soa, pero para eles sería máis rendible para tentar facelo xuntos. Ao final, moito máis fácil de conducir a vítima nunha esquina, se operar en conxunto.
Aínda que os resultados foron mesturados, no caso de pequenas redes, versións maiores axiña entendeu que a cooperación ao contrario da competencia nesta situación será máis favorable.
"Dilema do prisioneiro"
Entón, o que estes dous versión simple do "dilema do prisioneiro" amosar? DeepMind sabe que a mellor forma de traballar, se quere seguir o obxectivo, mais cando os recursos son limitados, funciona ben traizón.
Probablemente o peor nestes resultados que o "instinto" de intelixencia artificial é moi semellante ao humano, e nós estamos ben conscientes do que, por veces, causar.
Similar articles
Trending Now