Vie. Sep 13th, 2024

Cómo deberían comportarse los sistemas de inteligencia artificial (IA) y quién debería decidir al respecto es un tema cada vez más relevante en el mundo tecnológico. En este sentido, OpenAI, una empresa enfocada en el desarrollo de IA y en asegurarse de que el progreso en este campo beneficie a la humanidad en general, se ha planteado la cuestión de cómo el comportamiento de sus sistemas de IA, como ChatGPT, es moldeado y quiénes deben tomar las decisiones al respecto.

Desde el lanzamiento de ChatGPT, los usuarios han compartido resultados que consideran políticamente sesgados, ofensivos u objetables. En muchos casos, OpenAI reconoce que las preocupaciones planteadas son válidas y que han descubierto limitaciones reales de sus sistemas que desean abordar. Para resolver estos problemas, la empresa ha puesto en marcha un plan para mejorar el comportamiento predeterminado de ChatGPT, permitir una mayor personalización del sistema y obtener más aportes del público en la toma de decisiones.

A diferencia del software convencional, los modelos de OpenAI son enormes redes neuronales cuyo comportamiento se aprende a partir de una amplia gama de datos, en lugar de ser programado explícitamente. Aunque el proceso no es perfecto, la empresa trabaja para mejorar su alineación con los valores humanos a medida que los sistemas de IA se vuelven más capaces. El proceso de construcción de ChatGPT consta de dos fases principales: la pre-entrenamiento y la afinación. Durante la primera fase, el modelo aprende a predecir la próxima palabra en una oración a partir de su exposición a una gran cantidad de texto de Internet, mientras que en la segunda fase se estrecha el comportamiento del sistema a través de una revisión humana cuidadosamente generada.

OpenAI también se preocupa por abordar los sesgos en los sistemas de IA, y está comprometida a ser transparente sobre sus intenciones y progreso en este sentido. La empresa comparte parte de sus directrices que se refieren a temas políticos y controvertidos y afirma que las tendencias que puedan surgir en el proceso son errores, no características. OpenAI se esfuerza por mejorar la claridad de estas directrices y, a partir de lo que han aprendido del lanzamiento de ChatGPT hasta ahora, proporcionará instrucciones más claras a los revisores sobre posibles problemas relacionados con el sesgo y las figuras y temas controvertidos.

En general, OpenAI cree que la IA debería ser una herramienta útil y personalizable por cada usuario dentro de los límites definidos por la sociedad. Por lo tanto, la empresa está desarrollando una actualización de ChatGPT que permita a los usuarios personalizar su comportamiento, lo que significa permitir resultados que otros puedan considerar incorrectos. Para definir los límites del sistema, OpenAI busca la participación del público en la toma de decisiones.

En conclusión, la empresa está trabajando para mejorar el comportamiento predeterminado de ChatGPT, permitir una mayor personalización del sistema y obtener más aportes del público en la toma de decisiones. OpenAI espera que la tecnología de IA sea una herramienta útil y personalizable para cada usuario dentro de los límites definidos por la sociedad, y se compromete a ser transparente y a abordar los sesgos en los sistemas