
Seguridad sacrificada por beneficio: Silicon Valley reduce la investigación en IA
Las empresas de Silicon Valley están sacrificando cada vez más la investigación en inteligencia artificial por beneficios. Y el desarrollo de productos está desplazando el trabajo sobre la seguridad de los sistemas. Según White, cuya empresa CalypsoAI realiza auditorías de modelos populares de Meta, Google y OpenAI, los sistemas modernos tienen menos probabilidades de rechazar solicitudes maliciosas. Y pueden revelar formas de crear dispositivos explosivos o información confidencial para actores malintencionados.
«Los modelos están mejorando, pero también es más probable que sean buenos en cosas malas», dice White. «Se está volviendo más fácil engañarlos para que hagan algo dañino».
Los cambios son particularmente notables en empresas como Meta y Alphabet, que han reducido la prioridad de los laboratorios de investigación. En la empresa matriz de Facebook, la división de investigación fundamental en inteligencia artificial ha pasado a un segundo plano. Dando paso a Meta GenAI.
En Alphabet, el grupo de investigación Google Brain ahora forma parte de DeepMind. La división responsable del desarrollo de productos de inteligencia artificial. Esta reorganización refleja un cambio de enfoque de la investigación fundamental al desarrollo aplicado.
Los periodistas de CNBC hablaron con más de 12 profesionales en el campo de la inteligencia artificial, quienes hablan unánimemente de un cambio de la investigación a productos que generan ingresos. Los empleados enfrentan plazos de desarrollo cada vez más ajustados. No pueden permitirse quedarse atrás en la carrera por llevar nuevos modelos al mercado. Y las pruebas exhaustivas se convierten en un lujo que las empresas consideran posible reducir.
Creo que en los próximos dos años veremos un aumento en los incidentes de seguridad. Lo que llevará a la intervención regulatoria de los gobiernos. O todo esto terminará en censura directa.