El tema de la inteligencia artificial está trayendo mucha polémica, hasta tal punto que existen dedicadas al sector tecnológico que se han posicionado a favor o en contra, como por ejemplo Bill Gates, Mark Zuckerberg, Stephen Hawking y Elon Musk, entre otros.

La postura de los principales detractores se basa en que algún día, dicha Inteligencia Artificial podría hacerse con el control de servicios o sistemas muy importantes poniendo en peligro a la raza humana. Por este motivo, Google está trabajando en DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, los cuales están creando un mecanismo que nos asegure poder desactivarla cuando resulte peligroso.

Esta serie de mecanismos ha recibido el nombre de ‘Safely Interruptible Agents‘, donde se describen unas funciones con el objetivo de evitar que DeepMind pueda tomar el control del sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control. Para que nos entendamos, se trata del típico botón rojo de emergencia.

Hasta la fecha han logrado desarrollar ‘Q-learning‘ y ‘Sarsa‘, dos algoritmos de seguridad que son imposibles de modificar por la propia máquina, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser primordial a la hora de crear una inteligencia artificial.

Dejar respuesta

Por favor introduzca su comentario
Inserte su nombre aqui