
OpenAI despide expertos en seguridad y reduce pruebas a días
Cambios alarmantes en OpenAI. Están despidiendo ingenieros responsables de protección contra filtraciones, robo de datos y otras amenazas críticamente importantes.
Y lo interesante es que OpenAI está despidiendo especialistas experimentados y contratando nuevos empleados en sus lugares. Explicación oficial suena vaga, cito – «compañía ha crecido y ahora enfrenta amenazas de otro nivel».
¡Pero esto es solo punta del iceberg en compañía! En paralelo, hay aceleración sin precedentes de lanzamientos de productos a costa de ignorar sus propios procedimientos de pruebas de seguridad. Si previamente verificación de modelos tomaba meses de análisis cuidadoso, ahora marcos de tiempo están comprimidos a pocos días.
Indicador más alarmante es cambio en enfoque a versiones finales de modelos. Checkpoints finales pueden no pasar verificación en absoluto, y solo versiones intermedias son probadas. Al mismo tiempo, casi todas pruebas están automatizadas. Lo que factualmente significa ausencia de supervisión humana sobre aspectos potencialmente peligrosos de inteligencia artificial.
Recuerda viejo chiste. Empleado dice a jefe: Tenemos agujero en seguridad. Y jefe le responde – Gracias a Dios, al menos algo está en nuestra seguridad.