Líderes tecnológicos y académicos piden una pausa de seis meses en el desarrollo de tecnologías avanzadas de IA


 Con el fin de tener una discusión seria sobre hacia dónde se dirigen estas mejoras mecánicas y cómo podrían realizarse, un grupo de líderes e innovadores de la industria tecnológica, así como académicos, investigadores y grupos de defensa, escribieron una carta abierta instando a las organizaciones y grupos que gestionan desarrollos de datos basados en PC para detener la planificación de cualquier sistema de inteligencia artificial superior a GPT-4.


En los últimos años se ha visto un resurgimiento del interés en los avances del conocimiento basados en PC, en particular los avances del conocimiento imitado generativo, que normalmente crean contenido y medios. Esto probablemente se deba a una mayor visibilidad en plataformas estandarizadas como ChatGPT y a la tendencia general de que estos sistemas eventualmente se vuelvan más refinados.


Esto ha hecho que los interminables debates dentro de las comunidades innovadoras y de derechos de autor sobre la legalidad de la extracción de datos, la protección de los derechos de autor de las obras basadas en el conocimiento replicado y la protección legal de las identidades de las personas se sientan especialmente importantes. Para unir a la gente en los Estados Unidos sobre estos problemas, la industria de la música ha enviado una misión llamada Human Imagination Mission.


El efecto que los avances de conciencia generalmente complejos hechos por el hombre podrían tener con respecto a cosas como seguros, seguridad, chantaje, cuestiones legislativas, la economía y la sociedad en general es una gran preocupación para la cabeza de muchas personas.


La nueva carta, facilitada por un grupo llamado el Establecimiento del destino potencial de la vida, señala investigaciones que muestran que "los sistemas de conocimiento basados en PC con información viciosa para los humanos pueden presentar amenazas críticas para la sociedad y la humanidad" y que "un excelente conocimiento basado en PC podría abordar una enorme cambio a lo largo de toda la presencia de la vida en el mundo".


Teniendo esto en cuenta, continúa, "estos movimientos mecánicos deben esperarse y administrarse con el mismo pensamiento y recursos. Lamentablemente, este nivel de organización y de líderes no está sucediendo, a pesar de que en los últimos meses se han mantenido laboratorios de razonamiento hechos por el hombre". una rivalidad salvaje para crear y enviar áreas de fortaleza para mentes consistentes que nadie, ni siquiera sus productores, pueden entender, predecir o controlar de manera confiable".


La carta continúa: "Las estructuras de conocimiento contemporáneas basadas en PC se están volviendo ahora más serias para los humanos en tareas generales y deberíamos preguntarnos: ¿Podría ser inteligente en lo que a nosotros respecta permitir que las máquinas inunden nuestros canales de información con declaraciones y ¿No es cierto? ¿Podría ser realmente inteligente para nosotros mecanizar todas las posiciones, incluidas las fantásticas? ¿Podría ser apropiado en lo que a nosotros respecta cultivar personajes no humanos que podrían convertirse en amenazas del mundo real?


Las afirmaciones de que "tales decisiones no deberían repartirse entre los pioneros tecnológicos elegidos" están en el centro de su argumento. "Los sistemas sólidos de conciencia creados por el hombre deben convertirse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán razonables", y la certeza debe ser notablemente genuina y aumentar con la importancia de los efectos potenciales de una estructura.


Por lo tanto, la carta insta a todos los laboratorios de conocimiento basados en PC "a que detengan de inmediato la planificación de sistemas de razonamiento computarizados más notables que GPT-4, en algún lugar del promedio de medio año", donde GPT-4 es la versión más reciente del hombre. Perspectiva creada por ChatGPT, desarrollada por el laboratorio de evaluación OpenAI.


Esta separación "debe ser pública y cierta, y consolidar a todos y cada uno de los actores clave", dice la carta. Los laboratorios de conocimientos reproducidos y los profesionales independientes deben usar este aplazamiento para crear y completar conjuntamente una gran cantidad de pantallas de prosperidad compartida para la planificación y mejora de los conocimientos recreados de vanguardia, que son completamente investigados y regulados por profesionales capacitados externos independientes.


Continúa diciendo que "estos espectáculos deben garantizar que las estructuras adheridas a ellos estén protegidas sin lugar a dudas". "Esto no significa descansar en la mejora de la percepción hecha por humanos cuando hay dudas, esencialmente crear cierta distancia de la carrera peligrosa hacia modelos de caja negra arbitrarios cada vez mayores con límites emanantes", escriben los autores.


Elon Musk, quien ayudó a diseñar OpenAI, y el devoto de Mac Steve Wozniak se encuentran entre los firmantes de la carta, junto con muchos otros académicos y expertos en la materia y muchos directores anteriores o actuales de gigantes tecnológicos y organizaciones de información basadas en PC. Aquí puede leer el documento completo y obtener una lista exhaustiva de quién lo firmó.

Publicar un comentario

Artículo Anterior Artículo Siguiente