Zuckerberg y el futuro de la Inteligencia Artificial

Por Matías Nahon, Director general de Analitix

A fines del mes pasado Mark Zuckerberg generó una amplia polémica al revelar que su proyecto «Llama» de Inteligencia Artificial (IA) iba a ser de código abierto (open source como Linux). Quienes impulsan una IA de código abierto tienden, en general, a estar en contra de la regulación porque limitaría la innovación y la accesibilidad.

Ahora bien, como toda época de cambios, lo nuevo suele ser renovador, aunque al mismo tiempo encierra límites y riesgos. Vengo insistiendo en que el uso indiscriminado y sin regulación de las IA enfrenta la posibilidad del abuso con intenciones negativas respecto de la confidencialidad y el prestigio de personas y empresas tal como podemos ver ha interpretado la reciente regulación de la Unión Europea al respecto.

Con este anuncio de la nueva Inteligencia Artificial de Meta (Facebook, Instagram, WhatsApp, etc.) se diferencia de las otras empresas de IA (OpenAI, Google DeepMind y Anthropic) que cobran por su acceso. El código abierto abre la posibilidad de que más creaciones falsas (deepfake) sean realizadas sin poder rastrear origen. Zuckerberg argumenta que su desarrollo favorece la democratización; los críticos señalan los riesgos.

Finalmente, la innovación puso en debate si la IA debe ser regulada o no. Después de la norma SB1047 en California y el reglamento de la UE 2024/1689 no quedan dudas que la regulación es lo que se viene. Más aún, desde la experiencia de casos de noticias falsas, imágenes, audios y el acceso a información confidencial me declaro ferviente defensor de una regulación que no afecte el potencial uso innovador de la Inteligencia Artificial.

A favor de Meta, es cierto que detrás del potencial control de la IA de código abierto están los intereses de las compañías que no quieren prescindir de vender el acceso a sus plataformas (fees), aunque no es menos cierto que los riesgos están ya palpables y evidentes. Ya sabemos que un ataque al prestigio de alguien con IA es un hecho que solo necesita tener suerte una vez, pero la defensa necesita tener suerte todas las veces. Es igual a un virus, que puede propagarse y matar en cuestión de días, mientras que implementar un tratamiento puede llevar años. 

Por lo tanto, todas las regulaciones que obliguen a las empresas a tomar la responsabilidad de limitar el uso indebido de la Inteligencia Artificial, para mí, debe ser bienvenido. Zuckerberg admite que la tecnología de código abierto en Inteligencia Artificial es fácilmente robada por actores malintencionados, la solución que parece proponer es dársela gratis.

Por otro lado, estamos viendo que la IA llegó para cambiar el mundo y aún no sabemos exactamente qué consecuencias tendrá sobre el futuro de nuestras vidas. Algunos usos que la incluyen empiezan a desplazar puestos de trabajos, más que nada en sectores creativos que hasta ahora eran lugares de difícil reemplazo de la capacidad humana de trabajo. Fotografía, respuestas automáticas de servicios, educación, identificación biométrica, programación, y potencialmente transporte público son las que están más en evidencia.

La reproducción de imágenes y voz se hacen muy difícil de identificar si es falsa o verdadera, por lo cual la regulación de la Unión Europea (UE) sienta las bases para seguir avanzando para lograr una IA fiable y segura. El reglamento destaca la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA como en el caso de la identificación biométrica. Su preocupación se focaliza en la aplicación de manera remota, aunque sea aplicado dentro de la jurisdicción de la UE. Especial énfasis pone la reglamentación en que se ajuste el Derecho ya constituido y que armonice especialmente con los derechos tendientes a la protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos.

El riesgo más evidente es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales. Falta ver cómo esta nueva normativa se aplica de manera concreta, pero desde ya, significa un avance en la identificación de potenciales riesgos y el establecimiento de límites que resguarden los derechos de las personas.

Por un lado, están quienes están en contra de la reglamentación de la IA y por el otro quienes están a favor. Un análisis en detalle de este debate en Argentina merecería un tratamiento de carácter de urgencia. Esperemos que se logre.

Compartir
Redacción Covernews

Publicado por
Redacción Covernews
Etiquetas: Analitix Anthropic Facebook Google Google DeepMind Instagram Meta OpenAI WhatsApp

Entradas recientes

  • Negocios ARG

Club Kick Off lanza la primera plataforma de crowdfunding deportivo en Argentina

El deporte argentino recibe un impulso innovador con el lanzamiento de Club Kick Off, la…

6 horas hace
  • Breves

Doce argentinos confirmados en la clasificación del Buenos Aires Challenger 2024

El Buenos Aires Challenger, certamen oficial del circuito ATP organizado por Torneos, ya tiene confirmada…

2 días hace
  • Breves

ARCAP y AAICI organizan el Foro Argentino de Inversiones 2024 en el Palacio Libertad

La Asociación Argentina de Capital Privado, Emprendedor y Semilla (ARCAP) junto con la Agencia Argentina…

2 días hace
  • Negocios ARG

SAP y la Universidad de Belgrano firman convenio educativo para integrar nuevas tecnologías en la enseñanza

La Universidad de Belgrano y SAP firmaron un acuerdo para que la casa de estudios…

5 días hace
  • Negocios ARG

Bodegas de Argentina participó en el Encuentro Anual de la Hotelería y Gastronomía junto a empresas socias

Bodegas de Argentina (BdA), a través de su marca Caminos del Vino, participó en la…

5 días hace
  • Tecnología ARG

Nissan América Latina lanza el Mes de la Carrera y Desarrollo con foco en IA y machine learning

Nissan América Latina anunció el inicio del "Mes de la Carrera y Desarrollo", una iniciativa…

5 días hace