Otra advertencia de IA de alto perfil dividirá a los expertos. Firmaron el CEO de Google DeepMind, Demis Hassabis, y el CEO de OpenAI, Sam Altman.
Los mejores especialistas, diseñadores y jefes de inteligencia basada en computadoras han emitido otra advertencia sobre la amenaza existencial que creen que la IA representa para la humanidad.
Moderar el riesgo de erradicación de la inteligencia artificial debería ser una necesidad mundial cerca de otros peligros de escala cultural como pandemias y conflictos atómicos".
Demis Hassabis, CEO de Google DeepMind, y Sam Altman, CEO de OpenAI, así como Geoffrey Hinton y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018, el "Premio Nobel de la informática", han firmado este comunicado. . El Center for AI Safety, una organización sin fines de lucro con sede en San Francisco, lo publicó. Yann LeCun, el tercer campeón del año y principal investigador de inteligencia artificial de Meta, aún no se ha registrado.
La declaración es la última entrada de alto perfil en el debate sobre la seguridad de la IA. Las mismas personas que aprobaron la advertencia de 22 palabras pidieron una "pausa" de seis meses en el desarrollo de IA a principios de este año en una carta abierta. Las cartas fueron criticadas. Algunos expertos pensaron que sobrestimó el riesgo de la inteligencia basada en computadoras, mientras que otros estuvieron de acuerdo pero no estuvieron de acuerdo con la solución de la carta.
El director ejecutivo del Centro para la Seguridad de la IA, Dan Hendrycks, dijo a The New York Times que la breve declaración de hoy, que no propone ninguna estrategia de mitigación de amenazas de IA, tenía como objetivo evitar disputas. Hendrycks señaló: "No queríamos presionar por un menú muy grande de treinta intervenciones potenciales". Eso diluye el mensaje.
Hendrycks calificó la carta como una "salida del armario" de la industria con respecto al riesgo de IA. Hendrycks le dijo a The Times que "hay un concepto erróneo muy común, incluso en la comunidad de IA, de que solo hay unos pocos condenados". Sin embargo, varios expresaron discretamente sus dudas.
Los contornos básicos de esta discusión son bien conocidos, pero los detalles suelen ser tediosos. Muchos expertos creen que las rápidas mejoras en los marcos, como los grandes modelos de lenguaje, indican futuros avances en el conocimiento. Una vez que los sistemas de IA se vuelven sofisticados, pueden volverse incontrolables.
Algunos dudan de estas predicciones. Demuestran la incapacidad de los marcos de inteligencia artificial para manejar incluso tareas simples como conducir. A pesar de los miles de millones de dólares en investigación, todavía faltan años para los autos autónomos. Los escépticos se preguntan: "¿Qué posibilidades tiene la IA de igualar todos los logros humanos en los próximos años si no puede manejar ni siquiera este desafío?"
Mientras tanto, tanto los defensores del riesgo de inteligencia creado por el hombre como los escépticos están de acuerdo en que, incluso sin actualizaciones, los marcos de trabajo de inteligencia basados en computadoras presentan muchos riesgos, desde reconocimiento masivo hasta cálculos defectuosos de "vigilancia profética", engaño y desinformación.
Publicar un comentario