Inteligencia Artificial: El nuevo poder de tu identidad digital.

La inteligencia artificial ha dado pie a una nueva época del conocimiento humano en la que se puede procesar grandes cantidades de datos para ayudar a las personas a cumplir sus objetivos de manera más eficiente. Sin embargo, como cualquier gran descubrimiento, este poder lleva consigo riesgos importantes para la humanidad. Es por eso que el objetivo de este artículo es dar a conocer algunos de estos riesgos y cómo –desde mi perspectiva– pueden ser mitigados.

Empecemos por reconocer el innegable éxito de los modelos de LLM (Large Language Models) como ChatGPT o Dall-e y cómo esto se debe principalmente a las inversiones realizadas –como la compra de Open AI– y la facilidad con la que sus resultados se vuelven virales. Entendiendo un poco más la AI, es importante tener presente que los modelos utilizan una cantidad enorme de datos para entrenar a sus algoritmos. De esta manera, los resultados dependen de la data que se suministró para cada entrenamiento, por lo que en realidad no se puede generar contenido 100% original. En otras palabras, un algoritmo LLM es tan bueno como la información utilizada para entrenarlo y nos permiten acelerar el proceso del conocimiento con la eliminación de tareas repetitivas –a pesar de que estos algoritmos de AI no pueden ser creativos por sí mismos y, como tal, no tienen un entendimiento total del resultado de las tareas que completan–.

Dentro de los principales riesgos que –como cualquier avance tecnológico– implica, podemos comenzar a destacar la sed de datos por parte de los algoritmos que, de no ser vigilada, podría generar escenarios adversos en la integridad de la información de las personas.

La estrategia de permitir que las herramientas de AI sean públicas y gratuitas es un ejemplo de dicha sed de datos. Al trabajar de esta manera, logran generar mayor información para su entrenamiento y permiten mejorar el funcionamiento de los recursos (los resultados podrán crecer exponencialmente mientras más personas interactúen).

Esto último no es necesariamente un punto negativo, sin embargo, el resultado dependerá de dos factores. El primero es la naturaleza de la institución que pone disponible estas herramientas y el segundo, la responsabilidad de los usuarios al interactuar con dichos recursos.

Puntualizando cada factor, una institución responsable y no maliciosa evitará solicitar datos sensibles y específicos que permitan la identificación plena de los usuarios, y si estos los proporcionan, no los almacenará en sitios expuestos a sus algoritmos. Esto implica que dichos datos  no podrán hacerse públicos de forma inadvertida.

Por ejemplo, si yo subo una base de datos de clientes a un sitio de AI con su información de consumo para predecir cuáles de ellos comprarían en una campaña determinada, esos datos podrían quedar almacenados y usarse en la respuesta de otra solicitud. De esta manera, si otro usuario (ajeno a mí) pregunta cuántos clientes tiene mi compañía y su ubicación, la plataforma tendría la información completa para proporcionarla.

En este burdo escenario, existen dos puntos críticos: la irresponsabilidad de subir datos confidenciales y la decisión de guardarlos. Aunque pueda parecer absurdo, algo similar sucedió en Corea. De acuerdo a un artículo del medio Economist[1], algunos empleados de Samsung liberaron información confidencial sobre su sistema operativo al solicitar a ChatGPT que hiciera más eficiente su código. Cabe recalcar que la política de ChatGPT indica que es necesario señalar que no deseas que tu solicitud sea utilizada para entrenamiento del modelo

Estos escenarios han llevado a que incluso algunos gobiernos sientan preocupación por el desarrollo de dichas herramientas. De acuerdo con la BBC[2],  el gobierno de Italia prohibió el uso de ChatGPT  hasta confirmar que cumple con las leyes de protección de datos europeas (GPDR).

¿Qué es lo que se puede hacer para que estos escenarios y otros más graves no ocurran en el futuro?

  • Primero: fomentar la educación (sin importar la edad o nivel socioeconómico) de porqué su información es importante y no debe ser compartida en cualquier sitio o entidad.
  • Segundo: implementar reglas transparentes para el manejo de la información en las organizaciones que administran estas plataformas (de esta manera el uso de la información será claro para todos los participantes).
  • Tercero: usar los servicios más maduros o de fuentes confiables. Por ejemplo, será preferible no utilizar aplicaciones creadas en países con poca legislación, ni aplicaciones en las que suministramos nuestros biométricos (como fotografías del rostro) para cumplir algún enrolamiento de un sitio en tendencia.

En conclusión, la inteligencia artificial es inevitable. Nos ayudará a alcanzar niveles de desarrollo nunca vistos, podremos resolver los principales problemas de la humanidad, seremos más rápidos y nos equivocaremos menos. Sin embargo, debemos ser cuidadosos con su uso para no poner en riesgo nuestra identidad digital, pues es lo más valioso que tenemos (al ser la llave para acceder al mundo digital, nos permite trabajar, divertirnos, aprender e interactuar con otras personas).


[1] Aquí el artículo de Mashable: https://mashable.com/article/samsung-chatgpt-leak-details

[2] https://www.bbc.com/news/technology-65139406

Comment