OpenAI Anuncia la Formación de un Nuevo Comité de Seguridad y el Entrenamiento de su Nuevo Modelo de IA

0

Sam Altman, director de OpenAI, sostuvo que su próximo modelo de IA hará parecer "tonto" al que tienen disponible actualmente.

Nuevo Comité de Seguridad

El comité de seguridad estará conformado por miembros clave de la junta de OpenAI, incluyendo a Sam Altman, Adam D’Angelo, Nicole Seligman y Bret Taylor, así como expertos técnicos y de política como Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki y Lilian Weng. También consultarán con especialistas en ciberseguridad, John Carlin y Rob Joyce, para asegurarse de que los desarrollos de IA sigan los más altos estándares de seguridad y ética.

Entrenamiento del Nuevo Modelo GPT-5

OpenAI ha comenzado el entrenamiento de su próximo modelo de frontera, conocido hasta ahora como GPT-5. Este modelo representa un avance significativo en el campo del aprendizaje automático y se espera que supere las capacidades del actual GPT-4, llevando la inteligencia artificial a un nuevo nivel de capacidades y eficiencia.

Sam Altman, director de OpenAI, ha enfatizado que GPT-5 será notablemente más inteligente que su predecesor. "Uno de los hechos más notables de la historia humana es que podemos decir con un alto grado de certeza científica que GPT-5 será mucho más inteligente que GPT-4, y GPT-6 será mucho más inteligente que GPT-5", comentó Altman.

Importancia del Red Teaming

Antes del lanzamiento de GPT-5, OpenAI llevará a cabo un proceso de red teaming, que consiste en una serie de pruebas rigurosas para evaluar la confiabilidad y seguridad del modelo de IA. Este procedimiento es crucial para identificar y mitigar posibles riesgos asociados con el uso de la inteligencia artificial a gran escala.

Respuesta a las Preocupaciones Internas

El anuncio del nuevo comité de seguridad y el avance en el entrenamiento de GPT-5 se produce tras la renuncia de Jan Leike, líder del equipo interno encargado de atender los riesgos a largo plazo de la IA en OpenAI. Leike expresó sus preocupaciones sobre la dirección de la empresa, afirmando que en los últimos años, la cultura y los procesos de seguridad habían quedado en segundo plano frente a los productos más brillantes.

En respuesta, Sam Altman y Greg Brockman emitieron un comunicado conjunto para abordar estas preocupaciones y reafirmar el compromiso de OpenAI con la seguridad y la ética en el desarrollo de sus tecnologías de IA.

La formación del nuevo comité de seguridad y el entrenamiento del modelo GPT-5 representan pasos significativos para OpenAI en su misión de desarrollar tecnologías de IA seguras y avanzadas. Con la participación de expertos internos y externos, OpenAI busca asegurar que sus productos no solo sean innovadores, sino también responsables y seguros para todos los usuarios.

Publicar un comentario

0Comentarios
Publicar un comentario (0)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !