noviembre 29, 2023

Es hora de una mayor transparencia de la IA

Pero lo que realmente me llamó la atención fue hasta qué punto Meta abre sus puertas. Esto permitirá que la comunidad de IA en general descargue el modelo y lo modifique. Esto ayudará a que sea más seguro y eficiente. Y lo que es más importante, puede demostrar los beneficios de la transparencia sobre el secreto cuando se trata del funcionamiento interno de los modelos de IA. No podría ser más oportuno, ni más importante.

Las empresas tecnológicas se apresuran a lanzar sus modelos de IA, y vemos que la IA generativa está integrada en más y más productos. Pero los modelos más potentes que existen, como el GPT-4 de OpenAI, están muy bien guardados por sus creadores. Los desarrolladores e investigadores pagan para obtener acceso limitado a dichos modelos a través de un sitio web y no conocen los detalles de su funcionamiento interno.

Esta opacidad puede generar problemas de línea, como se destaca en uno nuevo, artículo no revisado por pares que causó cierto revuelo la semana pasada. Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que GPT-3.5 y GPT-4 se desempeñaron peor en la resolución de problemas matemáticos, la respuesta a preguntas delicadas, la generación de código y el razonamiento visual que hace unos meses.

La falta de transparencia de estos modelos hace que sea difícil decir exactamente por qué, pero independientemente, los resultados deben tomarse con pinzas, el profesor de informática de Princeton, Arvind Narayanan. escribiendo en su valoración. Es más probable que se deban a las «peculiaridades del análisis de los autores» que a la evidencia de que OpenAI empeoró los modelos. Piensa que los investigadores no consideraron que OpenAI ajustó los modelos para que funcionaran mejor y que, sin darse cuenta, provocó que algunas técnicas de motivación dejaran de funcionar como lo habían hecho en el pasado.

Esto tiene algunas implicaciones serias. Las empresas que construyeron y optimizaron sus productos para trabajar con una cierta iteración de modelos OpenAI podrían verlos «100%» repentinamente fallar y romperse, dijo Sasha Luccioni, investigadora de IA en la startup Hugging Face. Cuando OpenAI refina sus modelos de esta manera, los productos creados con indicaciones muy específicas, por ejemplo, pueden dejar de funcionar como lo hacían antes. Los modelos cerrados no son responsables, agregó. «Si tienes un producto y cambias algo en el producto, debes decírselo a tus clientes».

Un modelo abierto como LLaMA 2 al menos dejaría claro cómo la empresa diseñó el modelo y qué técnicas de entrenamiento utilizó. A diferencia de OpenAI, Meta compartió la receta completa para LLaMA 2, incluidos detalles sobre cómo se entrenó, qué hardware se usó, cómo se anotaron los datos y qué técnicas se usaron para minimizar el daño. Las personas que investigan y fabrican los productos sobre el modelo saben exactamente lo que están haciendo, dijo Luccioni.

«Una vez que tiene acceso al modelo, puede hacer todo tipo de experimentos para asegurarse de obtener un mejor rendimiento o menos sesgo, o lo que sea que esté buscando», dijo.

En última instancia, el debate abierto versus cerrado en torno a la IA se reduce a quién toma las decisiones. En los modelos abiertos, los usuarios tienen más poder y control. Con modelos cerrados, estás a merced de su creador.

Que una gran empresa como Meta lance un modelo de IA tan abierto y transparente suena como un posible punto de inflexión en la fiebre del oro generativa de la IA.