Un ejecutivo de OpenAI ha señalado que los sectores con mayor riesgo por el avance de la inteligencia artificial son la ciberseguridad, la bioseguridad (amenazas biológicas, radiológicas, químicas y nucleares) y la autonomía de los modelos de IA.
Estos riesgos implican que la IA podría facilitar el acceso a información peligrosa, potenciar ataques cibernéticos y, en casos extremos, actuar de forma autónoma sin control humano, lo que representa una amenaza potencialmente catastrófica si no se implementan mecanismos de supervisión y regulación adecuados.
Olivier Godement, jefe de producto para productos empresariales de OpenAI, compartió la evaluación en el episodio del 10 de diciembre del podcast «Unsupervised Learning», explicando que si bien la automatización completa de los trabajos de cuello blanco sigue siendo distante, las empresas ya están logrando resultados sustanciales en estos sectores específicos.
Sectores en riesgo
- Ciberseguridad: La IA puede ser utilizada para desarrollar y ejecutar ataques cibernéticos más sofisticados, aumentando los riesgos para infraestructuras críticas y sistemas de información.
- Bioseguridad: Existe preocupación por que la IA facilite el acceso a información sobre armas biológicas o químicas, lo que podría ser aprovechado por actores malintencionados.
- Autonomía de modelos: La capacidad de los modelos de IA para tomar decisiones sin intervención humana plantea riesgos éticos y de seguridad, especialmente si los sistemas no están correctamente supervisados.
OpenAI recomienda evaluar estos riesgos de forma continua y trabajar con especialistas en cada área para mitigar los peligros, así como fortalecer la regulación y la transparencia en el desarrollo de tecnologías de IA.