¡Todo el poder al Gran Hermano! ¿Para qué regular la Inteligencia Artificial?

Por Alfonso Morales
Profesor de la FCPyS. UNAM

A partir del documento “Recomendación sobre la ética de la inteligencia artificial”1 , aprobado por la Conferencia General de la UNESCO en noviembre de 2021 y publicado en Francia al año siguiente –casi al mismo tiempo del lanzamiento del ChatGPT en el mercado–, el tema de la Inteligencia Artificial, con sus implicaciones en la totalidad de los ámbitos de la realidad social y con el comprensible y hasta trillado temor que podría despertar, no ha dejado de circular en mesas de debate, espacios de análisis, centros de estudios, grupos de crítica, y hasta en entornos propios del público lego y –¿por qué no?–, aderezados con el más rancio amarillismo, llenos de sentido común y plantados con una raíz en la fábula y la ilusión, y otra en la ignorancia y el miedo.

 

¿Debería preocuparnos el desarrollo de la IA y su regulación? Para responder esta pregunta que parece salida de una portada de La Atalaya, lo primero que debemos hacer es ponernos de acuerdo respecto del concepto mismo. En el Diccionario de la Real Academia de la Lengua Española (DRAE) se lee: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”.

 

En su artículo publicado en 2004, What is Artificial Intelligence, John McCarthy define así este término que él mismo acuñó en 1956: «Es la ciencia y la ingeniería de la fabricación de máquinas inteligentes, especialmente programas informáticos inteligentes. Está relacionada con la tarea similar de usar computadoras para entender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables»2 .

 

Es decir, es un producto del trabajo humano, ese que transforma la natura en cultura y, por tanto, está ligado a los procesos civilizatorios, que dan ocasión a la economía, la política y la sociedad; pertenece, por tanto, a las fuerzas productivas. Dentro del sistema capitalista posneoliberal, pueden advertirse dos usos concretos de la IA. Por un lado, aprovechar su capacidad para mejorar la producción industrial, a partir de la organización cibernética de las cantidades inconmensurables de datos, cualidad que también tiene su correlato político: desde la manipulación de padrones electorales y reordenamiento de distritos, de acuerdo con las tendencias del voto.

 

Resulta curioso que se desaten polémicas discusiones sobre la pertinencia de regular o no la IA justo después de sucesos que van del Wikileaks al GPT-4 y los ChatBots; o de la piratería digital o Anonymus al OpenAI. Elon Musk, dueño de esta última empresa y de otras como Tesla, SpaceX o Twitter, junto con Steve Wozniak (el otro Steve, fundador de Apple), firmaron una carta en la cual demandan pugnar porque se pause, al menos por medio año, el desarrollo de este tipo de tecnologías, aunque no se aclara del todo en ese documento cuáles son los verdaderos motivos reales que la generan: una verdadera filantropía o crear mejores condiciones de competencia financiera que eviten o favorezcan monopolios y otras prácticas.

 

En México no existe, al menos formalmente, una entidad gubernamental o del Estado que regule la Inteligencia Artificial. Hace unas semanas el diputado del Partido Acción Nacional (PAN), Ignacio Loyola, presentó una iniciativa de ley que busca regular la IA con base en los principios de la Ética y el Derecho que, en concreto, propone la creación de un Consejo Mexicano para la Inteligencia Artificial y la Robótica, el cual, compaginado por completo a la ideología de ese partido, es concebido como un órgano descentralizado y estaría dedicado a normar el uso de estas tecnologías y prevenir abusos que repercutan en lo social, lo económico y, desde luego, en lo político.

 

Es inevitable pensar en lo que De la Boétie3 advertía: el esclavo abraza su servidumbre en la misma medida que teme a su muerte a manos del amo, o que renuncia a su propio poder. Imposible, también, lo es el no evocar la enorme cantidad de literatura, científica, de ficción y de ciencia ficción que se ha escrito acerca de las posibilidades que el lenguaje –y con él, el trabajo– le ha dado al ser humano. George Orwell y su maestro, Aldous Huxley, imaginaron y describieron escenarios distópicos en los cuales la tecnología es el nuevo Leviatán, ya sea a través de la represión de las ideas y de los cuerpos, o por la proliferación del hedonismo y la vanalidad; por censura o sobreinformación, van perfeccionando la dialéctica hegeliana-marxiana, en lo que parece ganar siempre el amo.

 

Tal vez nuestro mundo se parece más a lo que imaginó Huxley. Una sociedad cebada en el placer y la indolencia; o tal vez exista un Gran Hermano, como lo visionó Orwell, pero algo seguro es que no sólo es una entelequia que nos vigila sin que podamos hacer nada porque, en realidad hacemos mucho para que esa condición de vigilancia, manipulación y control se produzca no sólo contra nosotros, sino que es alimentado por nosotros mismos.

 

Rechazamos conscientemente ser espiados por todo tipo de programas como Pegasus –incluso, nos molestan las cámaras dispuestas en prácticamente todo lugar–, pero brindamos, inconscientemente y sin desconfiar, información sensible y hasta delicada sobre nosotros a las plataformas digitales sin percatarnos de que, en esa dinámica, el Gran Hermano somos nosotros mismos.

Referencias

UNESCO. (2022). “Recomendación sobre la ética de la inteligencia artificial”, en: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

 

2McCarthy, J. (1997) What is Artificial Intelligence?, en: http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.

 

3 De la Boétie, E. (Ed. 2016). Discurso de la servidumbre voluntaria, en: https://traficantes.net/sites/default/files/pdfs/discurso-de-la-servidumbre-voluntaria.pdf