Post Thumbnail

El insomnio de Altman: la carga de responsabilidad por cientos de millones de usuarios

En entrevista con Tucker Carlson, el CEO de OpenAI Sam Altman compartió revelaciones sin precedentes sobre dilemas morales. Que enfrenta como jefe de uno de los proyectos tecnológicos más influyentes de nuestro tiempo. “No duermo tranquilo por las noches desde el lanzamiento de ChatGPT en 2022,” confesó Altman en conversación con Tucker Carlson.

Esta frase refleja la gran carga de responsabilidad que siente el visionario tecnológico, cuyas decisiones afectan diariamente a cientos de millones de usuarios de IA en todo el mundo.

Interesantemente, lo que más preocupa a Altman no son los dilemas éticos globales. Sino “decisiones muy pequeñas” respecto al comportamiento del modelo que podrían tener consecuencias a gran escala.

Estas decisiones conciernen el ajuste fino de parámetros éticos de ChatGPT. Qué preguntas el chatbot debería ignorar y cuáles responder, y cómo exactamente. Tales matices, dice, forman la brújula moral de la IA. Determinando su influencia en usuarios y sociedad en general.

Autor: AIvengo
Latest News
OpenAI promete crear científico de IA completo para 2028

OpenAI prometió crear científico basado en IA completo para 2028. CEO de compañía Sam Altman también declaró que sistemas de aprendizaje profundo podrán realizar funciones de científicos investigadores a nivel de pasante para septiembre de próximo año. Y nivel de investigador de IA autónomo completo podría alcanzarse para 2028.

Empleos para jóvenes especialistas IT en Gran Bretaña colapsaron 46%

¿Saben qué está pasando en mercado laboral para jóvenes especialistas IT en Gran Bretaña? Durante último año, número de empleos para jóvenes especialistas colapsó 46%. Y se pronostica caída adicional de 53%, reporta The Register. Citando estadísticas de Institute of Student Employers.

Pavel Durov presentó Cocoon - red descentralizada para lanzar IA

Jefe de Telegram Pavel Durov habló en conferencia Blockchain Life en Dubái y presentó allí su nuevo proyecto llamado Cocoon. Y este es intento de desafiar monopolio de grandes corporaciones sobre IA.

Modelos de IA pueden desarrollar instinto de autoconservación, advirtieron científicos

Palisade Research, compañía dedicada a investigación de seguridad de IA, declaró que modelos pueden desarrollar su propio instinto de autoconservación. Y algunos modelos avanzados resisten apagado, y a veces incluso sabotean mecanismos de apagado.

IA pasó prueba de Turing en música

Universidad de Minas Gerais en Brasil realizó experimento. Participantes recibieron pares de canciones, en cada una de las cuales había pista generada. Necesitaban determinar cuál exactamente. Y resultados fueron inesperados.