OpenAI ha creado un equipo especial para evitar que la inteligencia artificial se rebele contra el ser humano

Mucho se viene hablando en los últimos tiempos acerca del potencial de la inteligencia artificial para poder cambiar nuestra sociedad de arriba a abajo, pero también mucho se habla acerca de sus peligros y cómo ésta debería ser regulada en todos los países. Te hemos hablado hasta la extenuación de modelos como ChatGPT, Bing Chat, DALL.E o Midjourney, pero ahora queremos presentarte a la policía que la IA necesitaba.
Un superequipo para una superinteligencia
Empezamos a conocer de qué es capaz la inteligencia artificial y es por ello que empieza a sonar con mucha más fuerza el término ‘superinteligencia’, que algunos vaticinan que sí pueden tener repercusiones importantes en la sociedad. Desde OpenAI tienen claro que deben atajar cualquier duda sobre su tecnología y es por ello que han creado un equipo denominado ‘Superalineamiento’. ¿Su misión principal? Intentar evitar que esa superinteligencia se vuelva contra nosotros. Y no es tarea fácil.
OpenAI es muy clara: creen que las actuales técnicas de alineación de la IA, llevar por el buen camino a la tecnología, no serán válidas cuando la superinteligencia sea una realidad. Es por ello que este equipo necesitará de la ayuda de la ciencia y de nuevos avances en el campo tecnológico. La compañía presidida por Sam Altman va a dedicar el 20% de sus recursos para intentar resolver el problema de la alineación de la IA más avanzada, contando con otros equipos para ayudarles con esta tarea y con nuevos métodos en desarrollo.
El objetivo del equipo, según lo publicado en el artículo, es alinear esta superinteligencia a través de métodos de entrenamiento escalables, la validación del modelo y estrictas pruebas de dicha alineación. La empresa sabe que a finales de esta década, o principios de la siguiente, ya podemos tener entre nosotros a una IA con capacidades que sobrepasan lo que los más optimistas habrían vaticinado y es por ello que este es el momento perfecto para empezar a poner soluciones preventivas.
El equipo ‘Superalignment’ estará compuesto por ingenieros informáticos e investigadores en aprendizaje automático, quienes deberán atajar problemas que ya empiezan a surgir en modelos como ChatGPT y que, además, ya son motivo de la puesta en marcha de borradores de leyes, que intentarán que el ser humano no sucumba a su propia creación, sino que la utilice para su propio beneficio.
Fuente: https://www.mundodeportivo.com/