Por Hannah Pérez  

Los desarrolladores de ChatGPT lanzaron un programa de recompensas por errores para sus productos de inteligencia artificial, aunque no incluye jailbreaking

***

  • OpenAI lanza programa de recompensa por errores para sus sistemas de IA
  • Los desarrolladores de ChatGPT pagarán USD $20.000 por “descubrimientos excepcionales”
  • El programa excluye prácticas de ‘jailbreaking’ al chatbot de inteligencia artificial

¿Encontraste un error en ChatGPT? Si lo reportas, ahora podrías ganar algo de dinero.

OpenAI, la empresa responsable del desarrollo del popular chatbot de inteligencia artificial (IA), acaba de anunciar un programa de recompensas por errores que ofrecerá recompensas en efectivo a cambio de hallar e informar vulnerabilidades de seguridad en sus sistemas, incluido ChatGPT. 

El programa de “Bug Bounty”, como se conoce en inglés, ofrecerá efectivo según la gravedad y el impacto de los problemas informados, pagando desde USD $200 por “hallazgos de baja gravedad“, hasta recompensas de USD $20.000 por “descubrimientos excepcionales”. Los informes se pueden enviar a través de la plataforma de ciberseguridad, Bugcrowd.

Estamos invitando a la comunidad global de investigadores de seguridad, piratas informáticos éticos y entusiastas de la tecnología para que nos ayuden a identificar y abordar las vulnerabilidades en nuestros sistemas”, dijo OpenAI.

OpenAI lanza programa ‘Bug Bounty’

La compañía recompensará por reportar errores de software en su API (interfaz de programación de aplicaciones) y otros servicios relacionados, pero no aceptará que hagan jailbreak a ChatGPT, un término que hace referencia a generar código o texto malicioso con el objetivo de engañar al programa AI para que viole sus propias reglas.

El jailbreaking generalmente implica ingresar escenarios elaborados en el sistema que le permiten eludir sus propios filtros de seguridad, como explica The Verge. Estas prácticas pueden incluir forjar los límites del chatbot para “incitarlo” a generar respuestas que de otro modo estarían prohibidas, como discursos de odio, instrucciones para crear armas e incluso crear malware.  

Los problemas de seguridad del modelo no encajan bien dentro de un programa de recompensas por errores, ya que no son errores individuales y discretos que se pueden corregir directamente”, destacó sobre esto la compañía, reconociendo que abordar este tipo de problemas “a menudo implica una investigación sustancial y un enfoque más amplio“.

En cambio, el programa de recompensas de OpenAI se centra en las fallas relacionadas con la privacidad del usuario y la ciberseguridad en los dominios web y las API de la empresa. Los usuarios pueden informar problemas de seguridad del modelo generados por jailbreaking utilizando un formulario separado, agregó la firma.

El nuevo programa, que busca combatir los problemas de vulnerabilidad y seguridad en los productos de OpenAI, tiene, no obstante, una condición. La empresa dijo que los hallazgos sobre errores u otras vulnerabilidades deberán mantenerse confidenciales hasta que el equipo de seguridad de OpenAI autorice cualquier publicación.

Preocupaciones de seguridad 

Los proyectos de tecnología con frecuencia ofrecen programas de recompensas similares para proteger sus sistemas contra amenazas informáticas. Por ejemplo, Ethereum ofreció medio millón de dólares por encontrar vulnerabilidades en su actualización Shanghai, mientras que gigantes tecnológicos como Apple pueden pagar hasta USD $2 millones por errores graves.

El lanzamiento de la iniciativa por parte de OpenAI se produce en medio de informes sobre los riesgos y las preocupaciones en torno a los modelos de inteligencia artificial, que han empezado a surgir de forma acelerada.

Hace unas semanas, los desarrolladores de ChatGPT desconectaron temporalmente su popular chatbot de IA después de hallar un error en una biblioteca de código abierto que permitía a algunos usuarios ver títulos del historial de chat de otros usuarios.

También el mes pasado, un hacker conocido como rez0 reveló en Twitter una serie de “complementos secretos” para la API de ChatGPT, complementos experimentales o aún no publicados para el chatbot de la empresa, como recuerda The Verge. La vulnerabilidad fue reparada un día después de que se divulgó, según notó el pirata informático. 

Italia se convirtió en marzo en el primer país de occidente en prohibir ChatGPT alegando recopilación ilícita de datos de usuarios. Mientras tanto, y en medio del hype por la nueva moda tecnológica, un grupo expertos e influyentes ya han pedido que se suspenda el entrenamiento de poderosos sistemas de IA citando temores de una amenaza para la humanidad.


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash 

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.