Europa
¿Cuál es la diferencia entre la Inteligencia artificial de códigos abierto y cerrado?
Reguladores, empresas emergentes y grandes tecnológicas se dividen en dos bandos en el debate sobre la inteligencia artificial de código abierto frente a la de código cerrado, en el que priman la seguridad y los beneficios.
La batalla entre las empresas de inteligencia artificial (IA) generativa está en marcha con dos bandos enfrentados: el software de código abierto frente al de código cerrado. La clave del debate es cómo se democratiza la tecnología, pero la seguridad y los beneficios tienen prioridad en la disputa.
En términos generales, el software de código abierto es aquel cuyo código fuente está a disposición de todo el mundo en el dominio público para su uso, modificación y distribución. Fomenta la creatividad y la innovación, ya que los desarrolladores pueden basarse en algoritmos de IA y modelos preentrenados para modificar sus propios productos y herramientas.
La IA de código cerrado, por el contrario, significa que el código fuente está restringido al uso privado y no puede ser alterado ni desarrollado por los usuarios; sólo puede hacerlo la empresa propietaria. Pero la financiación de estas empresas de código abierto es más fácil, lo que significa que disponen de mayor capital para innovar. La definición de lo que hace que una empresa sea de código abierto tampoco está tan clara…
Las empresas de IA que se declaran de código abierto argumentan que están haciendo que la tecnología sea más accesible para todos. El código abierto ayuda a democratizar la economía tecnológica
Pero las empresas de IA de código cerrado, como OpenAI (a pesar de su nombre), fabricante de ChatGPT, sostienen que el código abierto amenaza nuestra seguridad.
OpenAI se fundó originalmente para producir sistemas de IA de código abierto, pero la compañía dijo en 2019 que era demasiado peligroso seguir liberando su modelo de lenguaje GPT al público, ya que se parecía demasiado al habla humana y, si se ponía en las manos equivocadas, podría generar noticias falsas de alta calidad.
Con la IA de código cerrado, también hay políticas de uso que rechazarán cortésmente las solicitudes, como las instrucciones para fabricar una bomba o diseñar un coronavirus más letal. Técnicamente se puede hacer jailbreak a la política, es decir, se puede piratear para eludir las salvaguardas de una IA. Pero estas vulnerabilidades suelen solucionarse rápidamente.
Regulación
El debate entre código abierto y código cerrado ha sido un punto de fricción para los reguladores de Europa y Estados Unidos, que tienen puntos de vista opuestos.
En Europa, se espera que la Ley de Inteligencia Artificial de la UE obtenga la aprobación parlamentaria definitiva en abril. Pero el texto establece que la Ley no se aplicará a los sistemas de IA de código abierto a menos que estén prohibidos o clasificados de alto riesgo.
Se trata de una buena noticia para Francia y Alemania, que a lo largo de las negociaciones presionaron para proteger sus nuevas empresas de código abierto.