ChatGPT: pagarán hasta 20.000 dólares a quienes encuentren errores
En un mundo cada vez más conectado y digitalizado, la seguridad en línea se ha convertido en una preocupación primordial.
Para contrarrestar las amenaza de los ciberdelicuentes, OpenAI ha lanzado su propio programa de recompensas por errores o vulnerabilidades. Este podrá detectar y abordar problemas de seguridad en sus sistemas antes de que los atacantes puedan aprovecharse de ellos.
OpenAI, la compañía de inteligencia artificial fundada por Sam Altman, ha anunciado recientemente el lanzamiento de su propio programa de recompensas por errores o vulnerabilidades, o también llamado VRP, de ChatGPT.
‘Bug Bounty’ tiene el objetivo de ofrecer recompensas por descubrir vulnerabilidades en su modelo de IA, incluyendo el GPT-4 y otros, de acuerdo con la información del portal especializado ‘Xataka’.

Los pagos por las contribuciones varían según la importancia del hallazgo, desde 200 dólares por descubrimientos de baja gravedad, hasta 20.000 dólares por grandes hallazgos.
A pesar de que este tipo de soluciones son cada vez más comunes entre las grandes empresas de tecnología, OpenAI ha publicado una lista de problemas que están fuera del programa de recompensas.
Como lo explica la web, entre ellos se encuentran el uso de jailbreaks, forzar al modelo a que arroje resultados inapropiados o conseguir que escriba código malicioso.
Sin embargo, la compañía de IA está interesada en descubrir problemas de autenticación, situaciones de datos expuestos, fallos en la plataforma de pagos de ChatGPT Plus, entre otros.
Además, OpenAI se ha asociado con ‘Bugcrowd’, una plataforma especializada en identificar errores y vulnerabilidades en sistemas informáticos, que será la encargada de gestionar los envíos y recompensas.

En la página oficial dedicada caza de bugs escriben algunas de las reglas que deben seguir aquellos que quieran participar o “hackers éticos”, como ellos los llaman para distinguirlos de los ataques maliciosos.
Además, explican que la calificación de prioridad de las vulnerabilidades y la recompensa pueden ser modificadas por OpenAI. Señala también que los problemas de seguridad del modelo deben ser informados a través de un formulario específico.
Así mismo,si no están relacionados con el contenido de las indicaciones y respuestas del modelo no se recompensarán a menos que tengan un impacto en la seguridad.
El ‘Bug Bounty’ de OpenAI es una muestra más de cómo las empresas están tomando medidas proactivas para proteger sus sistemas de los ciberdelincuentes.
Aunque no hay sistemas 100 % seguros, estas iniciativas muestran que las empresas están tomando en serio la seguridad en línea y trabajando para mantener a sus usuarios a salvo.
Fuente:https://www.eltiempo.com/