Primer tiempo: IA 1 - Humanos 0
Así como Nietzsche pronunció la muerte de Dios con la llegada de la Ilustración y el uso de la razón, la inteligencia artificial plantea la posibilidad de crear máquinas que superen la inteligencia del mejor humano conocido. ¿Es la IA una entidad realmente todopoderosa capaz de reemplazarnos?
Sol Ucci (especial para Agencia CTyS-UNLaM)*- El ser humano, desde la Prehistoria, siempre ha necesitado de artefactos para tomar decisiones, para resolver problemas, para pensar el mundo. Somos seres incapaces de vivir sin técnicas. Desde Alan Turing con su artículo ¿Pueden pensar las máquinas? e Isaac Asimov con Yo, Robot, ambos publicados en 1950, la idea de la tecnología como una entidad independiente y suprahumana se consideró una posibilidad. Aquello que se pensaba que era puramente humano, como producir lenguaje generativo, responder chats, escribir poemas o novelas, hoy se delega cada vez más a la automatización.
El ser humano y la tecnología: toda inteligencia es artificial
En un mundo donde el humano se percibe como el único ser inteligente, el único “animal racional”, la pregunta sobre si es posible crear inteligencia abre un debate de límites controversiales. La profesora de Filosofía y Magister en políticas educativas, Ángela Menchón, aclara que los humanos siempre nos hemos vinculado con el mundo de manera tecnológica artefactual, lo que implica que nuestra inteligencia no es natural, sino que está mediada por artefactos.
Por otro lado, atribuir características humanas a las máquinas, lejos de humanizarlas, las enaltece. El ser humano programa la tecnología. El diseño de la Inteligencia Artificial (IA) involucra operaciones cognitivo-conceptuales a través de las cuales se deciden los métodos, patrones y datos que se aprehenden para generar un modelo de realidad que le permite al sistema realizar las acciones apropiadas.
“Así es como los chats generativos nos devuelven todo lo que nosotros subimos a la red y lo que hacen es recombinarlo -explica Menchón-. Son como una especie de espejo de lo que nosotros producimos ahí”.
Sin embargo, la docente e investigadora remarca que es de vital relevancia distinguir si se trata del mismo tipo de producción. “Vos podés leer un poema, una novela o ver una imagen hecha por una máquina. La diferencia es que las máquinas no tienen experiencia, esas imágenes no son frutos de una experiencia transformadora”.
De esto se desprende un gran interrogante ético sobre para qué queremos máquinas, qué queremos que hagan por nosotros y qué es lo que realmente podemos delegar.
Entre posturas tecnófilas y tecnófobas del vínculo del ser humano y la tecnología, encontramos miles de respuestas. Por un lado, la corriente transhumanista sostiene la idea de la Singularidad. La inteligencia artificial como complemento del ser humano que le permite volverse pura conciencia y trascender las limitaciones del cuerpo material.
“Yo prefiero pensar que somos una humanidad 4.0”, desarrolla la especialista. No podemos volver a un estadío pre-internet romantizado ni tampoco pensar en una apocalipsis tecnológica; así como la imprenta cambió la humanidad, Internet también y estamos viviendo un proceso de digitalización de la realidad.
La IA se equivoca, es humana
Si la Inteligencia Artificial no existe más allá de lo humano y se retroalimenta de los datos que nosotros mismos cargamos en la web, ¿es concebible pensar que cometa errores?
En un debate sobre la relación de la IA con la verdad, o la posverdad, Menchón explica que el algoritmo, al entrenarse sobre una realidad que ya es sesgada por el propio hecho de ser subjetiva, promueve la proliferación de información falsa. Fake news, deep fakes, trolls son síntomas de un mismo malestar.
El problema de la libre circulación de información en las redes oculta una problemática doble. En un sistema que parece democrático porque todos pueden opinar y hacer valer su voz, todo llega por igual y no hay regulación. Es una democracia bastante peligrosa con fundamentos epistemológicos confusos. “La democracia también tiene que ver con que la gente pueda recibir una formación científica válida”, argumenta la investigadora.
Las redes justamente orbitan en esas zonas grises, en la indiferenciación de todo. Cuando no hay institución, no hay ponderación de la información. Todo coexiste y circula en espacios donde no hay institucionalidad. Según Menchón, la institución y la educación, al igual que los medios de comunicación, deberían ofrecer dispositivos de análisis crítico. Hoy más que nunca, se necesitan grandes antiparras para atravesar un profundo mar de fakes.
La caverna algorítmica
El problema ético del ser humano y la tecnología es a quién favorecen las segundas, quiénes son los dueños y quiénes controlan esos algoritmos de los que dependemos tanto. La información falsa es altamente contagiosa, se propaga tan fácilmente cuando confirma sesgos. ¿Qué importa la esencia si la apariencia coincide con mi verdad?
Miles de años de filosofía platónica y la pregunta por "el ser versus el parecer" sigue en pie. La nueva caverna algorítmica crea una opinión pública muy desconfiada, pero a la vez muy crédula. Desconfiada de aquello que no dice lo que se quiere escuchar. Así, se configura un mundo de individuos que están autocentrados, conectados burbujísticamente solamente con los que piensan como ellos, que sólo esperan del otro confirmación.
Según la investigadora, en una atmósfera altamente digitalizada, todas nuestras actividades están mediadas por plataformas. A partir del escándalo de Cambridge Analytica y la venta de miles de datos desde Facebook para influir en las elecciones estadounidenses, algunos autores hablan de trabajo no remunerado de los usuarios en la web. Menchón explica: “Estamos todo el tiempo metiéndonos en páginas, buscando información, poniendo likes, toda esa información que producimos es la mano de obra para las plataformas”.
La inteligencia artificial, hoy, es parte de un entramado de lógicas de poder que buscan ser generadoras de opinión, de subjetividad, de votos.
Kate Crawford, en su libro Atlas de la inteligencia artificial (2023), desarrolla que la IA es extractivista en tres sentidos. Primero, porque representa una herramienta que posibilita la minería de datos, es decir, toma datos sin consentimiento o con un consentimiento indirecto. Segundo, porque requiere de recurso humano que trabaja, en gran medida explotado, para aquello que parece automático. Y por último, porque presupone la manipulación de los recursos naturales como agua, litio y minerales. Todo una sistematización concreta y anclada materialmente para una concepción abstracta y hasta independiente de la IA.
Pienso, así sobrevivo
“Vivimos como en un tecnofeudalismo- analiza la investigadora-. Somos como los siervos de los feudos, nadie nos obliga a estar ahí pero tampoco podemos salir, porque si salimos nos quedamos afuera de todo”.
Infocracia es el concepto que acuñó el filósofo y ensayista surcoreano Byung-Chul Han para describir cómo funcionan las sociedades actuales. En el régimen informativo, el poder no es disciplinario. No es necesario el panóptico foucaultiano para vigilar y castigar. Hoy, la dominación se efectiviza ante la transparencia. Las personas abogan por visibilidad en el régimen de la información y esa apariencia de claridad y libertad es su condición de posibilidad.
En un universo desfactificado, las noticias llegan antes que su confirmación, por lo tanto, el poder y el saber se aúnan en la verdad pero también en las fakes. Estas son, ante todo, información que desinforma. En esta misma línea, la especialista vaticina: “Corremos el riesgo de convertirnos en democracias que se transformen en brazos institucionales de los grandes poderes económicos”.
Luz
La guía básica para sobrevivir, en estos planteos del ser humano y la tecnología: pensar y filosofar. Ojo, tampoco caigamos en los extremos. Tal vez la IA no es exactamente el problema. Si soñáramos con un mundo igualitario, más justo, más informado, seguramente en ese mundo el ser humano necesitaría de la tecnología. Una tecnología regulada de otra forma, con otras dinámicas, otros mecanismos.
Algunos creen que la legislación estatal sobre las entidades privadas dueñas de estas plataformas digitales puede ser una posible solución. En definitiva, normativizar la gobernanza algorítmica, una idea que engloba un amplio espectro de prácticas sociotécnicas que se proponen ordenar y regular lo social a través de la vigilancia policial predictiva, la gestión laboral, la moderación de contenidos. La realidad, sin embargo, es que la regulación depende del contexto social, económico y político regional.
Sin embargo, podría pensarse a la filosofía como una herramienta para iluminar eso que se nos escapa. Su función es mostrarnos el entramado más complejo, político, económico, ético, cultural en el que nuestras prácticas tecnológicas cotidianas se desenvuelven.
Quizás es cuestión de preguntarnos si queremos una era donde las máquinas hagan cosas por o para nosotros, con qué regulaciones y a qué costo. Cuestionarnos la necesidad intrínseca del ser humano de atribuirle humanidad a algo exterior, a buscar respuestas metafísicas; entender por qué somos así de humanos, demasiado humanos, como dice Nietzche.
* Trabajo hecho por la estudiante Sol Ucci, de la Licenciatura en Comunicación Social, en el marco de la cátedra de Periodismo Científico de Gráfica IV.