P. Paolo Benanti es un franciscano del Tercer Orden Regular, profesor de Teología Moral en la Pontificia Universidad Gregoriana. En su labor de investigación, enseñanza y divulgación, se dedica a la ética, la bioética y la ética de las tecnologías. En particular, como escribe en su sitio web personal, sus estudios «se centran en la gestión de la innovación: internet y el impacto de la Era Digital, las biotecnologías para la mejora humana y la bioseguridad, las neurociencias y las neurotecnologías»[1]. Con gran habilidad comunicativa y pedagógica, el P. Benanti aparece con frecuencia en los medios y colabora con varias instituciones académicas, gubernamentales e internacionales. Recientemente, fue nombrado por el Secretario General de las Naciones Unidas como miembro del High-Level Advisory Body on Artificial Intelligence[2]. El P. Benanti ha aceptado amablemente responder a nuestras preguntas y le agradecemos vivamente su disponibilidad. En sus respuestas, arroja luz sobre muchas cuestiones de actualidad que definirán el futuro de la humanidad.
P. Benanti, ha sido recientemente nombrado por el Secretario General de las Naciones Unidas, António Guterres, como miembro del «High-Level Advisory Body on Artificial Intelligence» de la ONU. Nos resulta interesante que el único italiano en este grupo sea un religioso. ¿Significa esto que la Iglesia italiana está más avanzada en la reflexión sobre este tema?
El desarrollo rápido y global de la inteligencia artificial ha tomado por sorpresa a la mayoría de las personas. Este escenario de cambio veloz, de hecho, es un proceso interdisciplinario que cuestiona habilidades y disciplinas diversas, poniendo sobre la mesa numerosos factores de crisis y nuevos estímulos. El primer elemento a destacar es precisamente esto: el hecho de que la inteligencia artificial es un gran desafío para todos. En este frente general de transición, pertenecer a una institución, la Iglesia, y a una Orden, los franciscanos, que han atravesado otras grandes transiciones sociales y culturales, ayuda a vislumbrar en los diferentes elementos de cambio algunas instancias de continuidad y otras de novedad. Creo que esta coyuntura histórica, con el cambio de muchos elementos hasta ahora consolidados, también puede llevar al desarrollo de nuevos diálogos entre la Iglesia y el resto del mundo.
Obviamente, su nombramiento en la ONU no viene de la nada. También es miembro de la Pontificia Academia para la Vida, con un mandato en el ámbito de la inteligencia artificial; y fue nombrado por el gobierno italiano entre los expertos encargados de elaborar la estrategia nacional sobre inteligencia artificial. ¿Podría resumir el recorrido académico e intelectual que lo ha llevado a asumir cargos tan relevantes, además de su compromiso como profesor de Teología Moral en la Pontificia Universidad Gregoriana?
Antes de ingresar a la Orden, estaba estudiando ingeniería. Los años de la universidad me proporcionaron una base de lenguaje científico y técnico. Durante mi último año de carrera, antes de obtener el título, me uní a los franciscanos del Tercer Orden Regular. En ese momento, al dejar la universidad, pensé que también había abandonado el campo tecnológico. Después de estudiar Filosofía y Teología en Asís, continué con una licenciatura en Teología Moral en la Gregoriana. Aquí se me brindó la oportunidad no solo de profundizar en los fundamentos de la reflexión ética, sino también de abrirme a la complejidad y los desafíos del presente en la condición privilegiada de una Universidad pontificia romana. Viví una verdadera «Universidad de las Naciones», donde la diversidad de idiomas, experiencias humanas y eclesiales, y culturas generaba encuentros y enriquecimientos mutuos. Aquí pude desarrollar una perspectiva sobre los problemas actuales que luego resultó útil para abordar desafíos complejos y globales como los presentados por las inteligencias artificiales.
Un período muy importante para mí fue el tiempo dedicado al doctorado, donde, en el proyecto de investigación, pude reinterpretar el fenómeno tecnológico con las categorías generales aprendidas durante mis estudios. En este proceso de investigación, realizado en parte en la Universidad de Georgetown en Estados Unidos, pude captar un sutil desafío que se volvía cada vez más intenso y profundo: en la evolución tecnológica, se estaba produciendo una especie de confrontación entre una máquina, que parecía humanizarse cada día más, y un hombre, que parecía concebirse cada vez más como una máquina. De hecho, importantes tecnologías – como las nanotecnologías, las inteligencias artificiales y las biotecnologías –, apoyadas por algunas perspectivas del pensamiento posthumano, comenzaban a ser comprendidas como una forma de «mejorar» al hombre, considerado como una máquina defectuosa que debía ser «reparada».
Después del doctorado, me dediqué a la enseñanza. La enseñanza en la Gregoriana, donde ofrecí cursos específicos sobre neurociencias y ética, posthumanismo e inteligencias artificiales, proporcionó a mi investigación una estructura orgánica y me llevó a relacionarme con realidades académicas e institutos de investigación internacionales. Hoy en día, esta tarea, que llevo a cabo con pasión, me permite compartir con los estudiantes conocimientos en constante desarrollo. Comparto plenamente los valores de la Universidad Gregoriana y la misión de los jesuitas a los que está encomendada: hoy para mí, la universalidad y la cura personalis pueden ser herramientas valiosas para un desarrollo sereno y una convivencia pacífica entre los diferentes pueblos frente a los desafíos de las inteligencias artificiales.
Partamos de las definiciones. Cuando hablamos de inteligencias artificiales hoy, ¿de qué estamos hablando exactamente?
Precisamente en la definición de lo que son las IA encontramos las primeras dificultades. En un contexto en el que se busca regular este sector, encontrar una definición que abarque las diversas implementaciones técnicas de los sistemas de inteligencia artificial es muy complejo. Por un lado, los reguladores buscan una descripción de la IA que incluya sistemas muy diversos entre sí; por otro lado, las empresas intentan eludir límites específicos para poder eventualmente evadir futuras normativas de control. En este debate, una definición que incluye de manera adecuada diversas formas de inteligencia artificial es la propuesta por la Unión Europea en el borrador del AI Act. Aquí se establece que por «inteligencia artificial» podemos entender un software desarrollado con una o más de las técnicas y enfoques enumerados en una tabla técnica específica, «que puede, para una serie determinada de objetivos definidos por el ser humano, generar resultados tales como contenidos, previsiones, recomendaciones o decisiones que afectan a los entornos con los que interactúan»[3].
Inscríbete a la newsletter
Hoy en día, la expresión «inteligencia artificial» se utiliza como un término genérico para varias aplicaciones informáticas basadas en diversas técnicas, que muestran capacidades comúnmente y actualmente asociadas a la inteligencia humana. Los sistemas que califican como IA actúan registrando el contexto de su funcionamiento mediante la adquisición de datos, el análisis de datos estructurados o no estructurados, produciendo formas de conocimiento o procesamiento de información derivada de los datos y, sobre esta base, disfrutan de una capacidad de acción optimizada para lograr un objetivo específico. Las IA pueden diseñarse para adaptar su comportamiento con el tiempo según nuevos datos y mejorar su rendimiento con miras a un objetivo determinado.
¿Hay otras precisiones lingüísticas que no debamos olvidar?
Sí. A estas premisas, me parece importante agregar una precisión lingüística. Debido a la reducción tecnológica que la informática realiza sobre la inteligencia humana para obtener funciones parciales, el uso más adecuado del término «inteligencia artificial» es siempre en plural: las «inteligencias artificiales». Esta elección está respaldada por al menos dos razones. En primer lugar, destaca la brecha insalvable entre estos sistemas, por sorprendentes y potentes que sean, y la persona humana: el plural indica en este sentido que las IAs son solo fragmentos diversos que de alguna manera recuerdan o se asemejan a algunas capacidades humanas. En segundo lugar, el plural indica una falta de homogeneidad de estos instrumentos: los sistemas de IA siempre deberían ser vistos como «sistemas sociotécnicos», en el sentido de que el impacto de un sistema de IA, independientemente de la tecnología subyacente, depende no solo del diseño del sistema, sino también de cómo se implementa, se pone en marcha (deployment) y se utiliza. Por lo tanto, las inteligencias artificiales deben entenderse como una galaxia de artefactos muy diferentes entre sí que transforman profundamente nuestra vida social y algunos de los ámbitos más importantes del conocimiento y la acción.
A menudo, las inteligencias artificiales se asocian con la robótica. ¿Hay realmente alguna relación?
En términos muy generales, podemos definir a un robot como una máquina, a menudo programable por una computadora, capaz de realizar una serie compleja de acciones de manera automática. De hecho, un robot es un aparato mecánico y electrónico programable, utilizado en la industria para reemplazar al humano y realizar automáticamente operaciones repetitivas o complejas, pesadas y peligrosas. La programación de los robots hoy en día puede ser pensada de manera tradicional o mediante inteligencias artificiales, ya que los sistemas que califican como IA pueden aplicarse tanto en la dimensión física como en la digital.
La difusión de relatos y películas de ciencia ficción podría hacer pensar que el ser humano, con la robótica y la inteligencia artificial, puede crear otro Homo sapiens, mecánico en este caso, convirtiéndose en cierta medida en el «creador» de una «nueva especie de máquinas». Sin embargo, la experiencia cotidiana es diferente. Cada día, las inteligencias artificiales son más poderosas, pero aún no tenemos robots a la misma altura. La razón de esta diferencia está en una paradoja llamada así por su formulador, el informático Hans Moravec, quien, junto con Rodney Brooks, Marvin Minsky y otros, presentó una situación absolutamente contraintuitiva en la década de 1980. Contrariamente a las hipótesis tradicionales, el razonamiento de alto nivel requiere muy pocos cálculos, mientras que las capacidades sensoriomotoras y perceptivas de bajo nivel requieren enormes recursos computacionales. Moravec sostiene que es relativamente fácil lograr que las computadoras ofrezcan un rendimiento a nivel de adulto en pruebas de inteligencia o en jugar ajedrez, pero es difícil, o incluso imposible, dotarlas de las habilidades de un niño de un año, especialmente en lo que respecta a la percepción y movilidad. En otras palabras, las actividades que resultan complicadas para los seres humanos, como encontrar la raíz cúbica de un número muy grande, son fáciles para las computadoras y las IAs, mientras que las habilidades sensoriales y motoras simples para un bebé, como manipular un objeto o abrir una puerta girando el picaporte, son absolutamente complejas para las computadoras actuales y los sistemas de IA.
Existen varias explicaciones para la paradoja de Moravec. Los evolucionistas sostienen que las habilidades sensoriomotoras en los seres humanos son el producto de millones de años de evolución y, por lo tanto, son en su mayoría inconscientes. Las grandes porciones sensoriales y motoras del cerebro humano contienen mil millones de años de experiencia sobre la percepción del mundo y las habilidades necesarias para sobrevivir en él.
Para mí, el problema sugiere otra cuestión. Si la inteligencia no es una facultad abstracta producida por un órgano, el cerebro, quizás lo que importa en nuestro ser Homo sapiens, en nuestro ser persona, es también el cuerpo que habitamos. Somos inteligencias encarnadas. El soporte que vivimos, nuestro cuerpo, no es un hardware cualquiera, y eso marca la diferencia.
Surgen muchas preguntas cuando hablamos de inteligencia artificial: cuestiones éticas, preguntas sobre las consecuencias en el mercado laboral, o sobre el tratamiento y control de los datos personales. ¿Podemos realmente decir que la IA es neutral desde el punto de vista ético-moral y que todo depende de su uso o solo de un buen ingeniero informático? ¿Cuáles son los aspectos realmente centrales de la IA que tienen o tendrán un impacto real en nuestras vidas?
Langdon Winner, académico estadounidense conocido por sus estudios sobre la relación entre ciencia, tecnología y sociedad, cuestiona fuertemente – en su famoso ensayo Do Artifacts Have Politics? – la idea de que exista neutralidad ética en los artefactos tecnológicos, mostrando cómo algunas implementaciones tecnológicas pueden tener características éticas y políticas intrínsecas. Un ejemplo frecuentemente citado en su ensayo se refiere a la altura de los puentes sobre las carreteras de Long Island, construidos según normas específicas que impedían el paso de autobuses. Según Winner, esto era una forma de limitar el acceso de las minorías raciales y grupos de bajos ingresos, que no podían permitirse un vehículo personal y se desplazaban en autobús.
El ejemplo de Winner muestra cómo el diseño tecnológico no debe considerarse neutral, ya que impone una cierta forma de orden y disposición de poder en el impacto social de la tecnología misma, y puede ser utilizado para imponer un programa político particular. Esta conciencia que impregna el enfoque ético hacia la tecnología nos lleva a reconocer cada artefacto como un sistema sociotecnológico. La IA, en tanto artefacto, goza de las mismas propiedades. La forma en que la estamos desarrollando – la elección de algoritmos matemáticos y datos con los que entrenamos estos sistemas; la forma en que implementamos dichos sistemas; y finalmente, el diseño de la interfaz entre la máquina y el usuario, la llamada experiencia del usuario – es equivalente al concreto de los puentes sobre las carreteras de Long Island.
Tomemos, finalmente, la perspectiva de un filósofo italiano que se ocupa del ámbito digital, Cosimo Accoto. Según él, las inteligencias artificiales tienen sobre los sistemas mecánicos una función predictiva de lo que sucederá. En los seres humanos, afirma el filósofo, esta función genera comportamientos, como los consejos de compra de las plataformas de compras en línea. A la luz de esto, es lícito imaginar y temer un futuro en el cual la inteligencia artificial podría tener un impacto fuerte en nuestra libertad, convirtiéndose en un «tutor social» que nos guía hacia comportamientos considerados positivos, evitando los considerados negativos. Las preguntas sobre las posibilidades futuras de la inteligencia artificial para dar forma al mundo, en este punto, ya no son de naturaleza socioeconómica, sino ética y política. Y la pregunta que surge de manera apremiante es: ¿qué futuro queremos construir con la ayuda de estas tecnologías?
En un ensayo frecuentemente citado en los últimos años, «Automating Inequality», Victoria Eubanks ya advertía en 2018 sobre las posibles implicaciones, en el ámbito de la justicia social, del uso de la inteligencia artificial; por ejemplo, en la determinación de prestaciones de apoyo al ingreso o en la asignación de viviendas populares. ¿Es una preocupación concreta? ¿Cuáles son los desafíos en este caso?
Retomando el paradigma de Moravec, ya podemos vislumbrar los efectos sociales que la inteligencia artificial podría tener. Si la sociedad, como ocurrió al inicio de la revolución industrial, continúa en la dirección de la automatización del trabajo, las inteligencias artificiales, con su capacidad para sustituir más fácilmente tareas cognitivas elevadas en lugar de trabajo muscular, podrían «atacar» esos trabajos que caracterizan actualmente a una clase social particular: la clase media y los llamados «cuellos blancos». Algo en este sentido ya es visible en algunas nuevas formas de trabajo. Pensemos en la llamada Gig Economy, un modelo económico basado en el trabajo a demanda, ocasional y temporal, en lugar de en prestaciones laborales estables y continuas. En la Gig Economy, la oferta y la demanda de trabajo se encuentran principalmente a través de plataformas digitales. Este modelo de trabajo incluye una amplia gama de profesiones, principalmente en el ámbito digital, como fotógrafos, redactores, diseñadores gráficos y webmasters. Algunos ejemplos conocidos de la Gig Economy incluyen a los conductores de Uber, los repartidores de Foodora o Deliveroo, y los propietarios de viviendas que alquilan sus propiedades en Airbnb. Las grandes plataformas que facilitan el encuentro entre la demanda (problem owner) y la oferta (solution owner) confían en formas de automatización algorítmica e inteligencia artificial.
Pensemos en el mundo de las entregas: en estos nuevos sectores profesionales, el trabajador puede contribuir como máximo con la energía muscular para realizar la entrega, pero nunca logrará alcanzar un puesto directivo, ya que esto lo realiza un software. En un modelo de trabajo de este tipo, las profesiones con mayor contenido cognitivo y mayores ingresos son sustituidas por máquinas: al ser humano solo le queda desempeñar el papel de bajo ingreso y bajo contenido cognitivo. La ciencia ficción de los últimos años nos ha hecho mirar a las máquinas con un creciente temor a un posible fin de la humanidad, pero lo que creo que debería preocuparnos más – porque es más probable a corto plazo – es la extinción de la clase media.
En un tiempo en el que corremos el riesgo de entrar en la Tercera Guerra Mundial, o ya la tenemos «a pedazos», como afirma el papa Francisco, ¿qué podemos decir sobre la relación entre la inteligencia artificial y la guerra? ¿Qué impacto ya está teniendo o podría tener la IA?
En un reciente diálogo con el filósofo Sebastiano Maffettone sobre el tema de la IA y los conflictos, reflexionamos sobre el modo en que muchas cosas han cambiado en los conflictos armados en el último siglo: los intereses en juego, los combatientes, el espacio en el que se libran las batallas, los lenguajes. Han hecho su aparición los drones. Recientemente, un panel de expertos de las Naciones Unidas informó sobre el uso de un pequeño dron de fabricación turca, llamado STM Kargu-2, que en 2020 se convirtió en el primer dispositivo dirigido por inteligencia artificial en matar a seres humanos (soldados involucrados en un combate en Libia contra las unidades de Haftar). Este dron es capaz de operar de manera totalmente autónoma. En el informe de la ONU se menciona que «los sistemas de armas estaban programados para atacar objetivos sin requerir conectividad de datos entre el operador y el munición»; en otras palabras, se basaban en la visión por computadora y el reconocimiento de objetivos mediante inteligencia artificial. Técnicamente, los drones de este tipo se llaman municiones loitering, es decir, «vagabundas»; suelen ser verdaderas municiones, a menudo granadas, que vuelan unidas a un dron para realizar misiones «suicidas» y explotar junto con el portador una vez alcanzado el objetivo. Estos armamentos causaron estragos entre los combatientes de Haftar, ya que sus milicias no estaban entrenadas para defenderse de esta nueva tecnología.
Noticias como estas – el uso de Autonomous Weapon Systems, es decir, armas autónomas – nos obligan a reflexionar sobre la transformación de los conflictos armados y la posibilidad de que un ser humano sea asesinado por una máquina. Todo esto, hoy en día, es realizable y accesible incluso para facciones en guerra (y no solo para las llamadas «superpotencias»). En el desafortunado contexto de la guerra, las IA añaden al problema de la letalidad de los medios la potencial facilidad de uso y de difusión.
Hay otro cambio que resulta sorprendente: a los dominios tradicionales (tierra, mar, aire, ciberespacio y espacio), la OTAN ha añadido recientemente un nuevo espacio de competencia y conflicto, el dominio cognitivo. En este nuevo campo de batalla, que se lleva a cabo en la mente humana, el objetivo es cambiar no solo el pensamiento de las personas, sino también la manera en que piensan y actúan. Aquí también, las IA son potenciales protagonistas, especialmente las generativas: gracias a su capacidad para producir contenido verosímil y de gran habilidad persuasiva, se destacan como posibles herramientas bélicas. En este escenario, la manipulación cognitiva podría usarse no para destruir ciudades o exterminar seres humanos, sino para destruir la cohesión social y el espacio democrático. Desde este punto de vista, el Mensaje para la Paz anunciado por el papa Francisco para el próximo 1 de enero de 2024, que tendrá como tema principal las inteligencias artificiales, parece más oportuno y relevante que nunca.
Muchos países y organizaciones multilaterales piden que se regule la inteligencia artificial. ¿Cómo puede hacerse y qué aspectos deben tenerse en cuenta?
La regulación de la IA es un tema de gran actualidad y relevancia, tanto por la creciente importancia de esta tecnología en diversos sectores como por los retos éticos, de seguridad y privacidad que conlleva. En estos momentos, varios países y organizaciones internacionales están trabajando en iniciativas reguladoras.
Desde un punto de vista general, uno de los aspectos clave es la necesidad de equilibrar innovación y seguridad. La regulación debe diseñarse de forma que promueva el desarrollo responsable y seguro de estas tecnologías, sin ahogar la innovación ni crear barreras injustificadas a la entrada en el mercado de nuevas empresas (lo que de facto se traduciría en un monopolio de los grandes gigantes tecnológicos).
Además, esta reflexión debe producirse necesariamente en un contexto de colaboración mundial: es crucial que los países cooperen para desarrollar normativas coherentes y eficaces. Estas tecnologías digitales son globales: sólo con regulaciones globales será posible evitar situaciones en las que las empresas se trasladen a países con regulaciones menos estrictas.
Actualmente existen diversas perspectivas en el mundo. Por ejemplo, en EE.UU., la administración Biden-Harris ha estudiado varias propuestas legislativas para regular la IA, y ha obtenido compromisos de siete grandes empresas del sector para promover su desarrollo responsable y seguro. Estos compromisos incluyen pruebas de seguridad, intercambio de información sobre gestión de riesgos, inversión en ciberseguridad, divulgación de información sobre las capacidades de la IA e investigación para mitigar los riesgos sociales. También hay que mencionar la Recomendación de la UNESCO sobre la ética de la IA aprobada en noviembre de 2021. En Europa, la Comisión Europea está trabajando en la Ley de IA, una propuesta de regulación para clasificar los sistemas de IA en función del riesgo que plantean a los usuarios, con niveles de regulación que varían según el nivel de riesgo.
Tales intentos deben enfrentarse al hecho de que la regulación de la IA no puede ser un proceso estático, sino que debe ser capaz de adaptarse a las evoluciones tecnológicas. Por ello, un enfoque interdisciplinario, que incluya las humanidades, la ética e incluso la teología, es la única manera de desarrollar soluciones que sean realmente eficaces.
¿En qué punto se encuentra la reflexión de la Iglesia sobre la IA? ¿Existe ya algún pronunciamiento del Magisterio? ¿Puede abrirse un nuevo capítulo en la doctrina social de la Iglesia?
La reflexión de la Iglesia sobre la IA está en constante evolución y se centra principalmente en la ética y la antropología: lo que está surgiendo pretende promover una reflexión crítica sobre la IA y su papel en la sociedad. El Papa Francisco subraya la importancia de establecer límites para evitar posibles abusos en esta frontera de la humanidad, junto con una nueva y más urgente necesidad ética, o «algorética» (en referencia al desarrollo ético de los algoritmos).
El cambio de época de la vida humana, inaugurado por lo digital y la IA, debe abrirse, por tanto, bajo el signo de la responsabilidad y la búsqueda del bien por parte de todas las personas de buena voluntad. Este proceso debe llevarnos a tomar conciencia de que el diseño y la aplicación de la tecnología están condicionados por una serie de factores sociales y económicos, además de por consideraciones estrictamente técnicas. En este empeño, la Santa Sede desea asociarse con todas las personas de buena voluntad que buscan ampliar la agenda de la política tecnológica adoptando un enfoque del desarrollo, la implementación y el uso de sistemas de IA que se caracterice por la ética aplicada a las tecnologías digitales. Precisamente por este motivo, el Santo Padre, en su Discurso a la Plenaria de la Pontificia Academia para la Vida del 28 de febrero de 2020, afirmó que es necesario profundizar en la frontera de la algorética, que «puede ser un puente para que los principios se inscriban concretamente en las tecnologías digitales, a través de un diálogo transdisciplinar eficaz». Además, en el encuentro entre distintas visiones del mundo, los derechos humanos constituyen un importante punto de convergencia en la búsqueda de un terreno común. En la actualidad, además, parece necesaria una reflexión actualizada sobre los derechos y deberes en este ámbito. En efecto, la profundidad y la aceleración de las transformaciones de la era digital plantean cuestiones inesperadas, que imponen nuevas condiciones al «ethos» individual y colectivo.
Las aportaciones que vendrán del Mensaje por la Paz y del Mensaje para la Jornada de las Comunicaciones Sociales, ambos sobre el tema de la IA, podrían ampliar aún más estas reflexiones. Siempre es una apuesta predecir lo que sucederá en el futuro, pero esta área tiene el potencial de convertirse en una de las direcciones de expansión de la doctrina social de la Iglesia. Lo supongo, porque la propia Iglesia ya ha expresado la necesidad y la urgencia de integrar los principios éticos en la IA y ha subrayado la importancia de un consenso entre los responsables políticos, las agencias de la ONU, los investigadores, los académicos y los representantes de las organizaciones no gubernamentales. Creo que hay un enorme margen para profundizar en esta cuestión.
Últimamente se habla mucho de ChatGPT, una aplicación que tiene consecuencias considerables en el mundo de la escuela y la universidad. ¿Cómo puede abordarse este reto, quizá de una forma que sea también educativa y no sancionadora?
ChatGPT ha sido calificada como la aplicación de los récords, empezando por la tasa de adopción. Lanzada en noviembre de 2022, alcanzó el millón de usuarios más rápido que ninguna otra aplicación: en enero de 2023, sólo dos meses después del lanzamiento, había alcanzado los 100 millones de usuarios activos mensuales, y en septiembre de 2023 generaba más de 1.500 millones de visitas totales al mes. Estas cifras la han convertido en la aplicación de consumo de más rápido crecimiento de la historia, superando a aplicaciones tan populares como TikTok e Instagram, que tardaron nueve meses y dos años y medio en alcanzar los 100 millones de usuarios, respectivamente. Los datos demográficos de los usuarios también son interesantes: el 55,99% de los usuarios son hombres, y el grupo de edad más representado tiene entre 25 y 34 años.
Esta masificación de la adopción conlleva ciertos problemas. En primer lugar, la comprensión de lo que es realmente este producto. No es en absoluto, como piensan muchos usuarios, el equivalente a un motor de búsqueda. ChatGPT es un agente conversacional basado en un gran modelo de lenguaje (LLM), que utiliza técnicas de aprendizaje profundo y conjuntos de datos muy grandes para reconocer contenidos, generarlos, resumirlos, traducirlos e incluso predecirlos. Estos modelos se utilizan en diversas aplicaciones, como la generación de textos, la traducción, el resumen de contenidos, la reescritura de textos y la clasificación y categorización de contenidos.
ChatGPT es una aplicación de chat basada en un LLM llamado «GPT» con algunas características únicas. Una de ellas es el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), una técnica utilizada por OpenAI para perfeccionar los modelos GPT de modo que prefieran una respuesta a otra. La interfaz de chat de OpenAI, que recuerda intercambios anteriores con el usuario en la sesión y los añade al prompt (la pregunta propuesta por el usuario), genera una especie de conversación que tiene «memoria» de lo que se dijo antes.
Este simple cambio en la experiencia del usuario ha supuesto una gran diferencia en el modo de uso para el gran público. Y ahí se esconde una diferencia insidiosa. Al tratarse de una herramienta de conversación, ChatGPT no está pensada para dar respuestas precisas y exactas, sino para «entretener» a su interlocutor de forma muy parecida a una conversación en el bar, en la que el espectador sigue charlando con nosotros e intenta prolongar la conversación todo lo posible. Poco importa que sus afirmaciones sean inexactas o imprecisas: el objetivo de la conversación es prolongarla. Pero hay más. Los modelos GPT han mostrado un lado inesperado: la aparición de propiedades emergentes, es decir, comportamientos y capacidades no programados explícitamente por los desarrolladores. Son el resultado de complejas interacciones entre los componentes del modelo y del entrenamiento sobre conjuntos de datos.
APOYA A LACIVILTACATTOLICA.ES
ChatGPT ha demostrado ser capaz de resolver pequeños juegos de palabras, crear paráfrasis y adaptar sus resultados a las sugerencias de los usuarios. Puede entender el lenguaje humano y el contexto, interactuar con la inteligencia emocional y, lo más sorprendente de todo, parece tener cierto conocimiento de los hechos hasta noviembre de 2021.
Así pues, el uso de ChatGPT en la universidad presenta como primer y radical problema la ignorancia del medio: si un estudiante quiere utilizar el sistema para producir conocimiento, es simplemente una «víctima» de la ignorancia del medio que está utilizando. Es urgente educar a profesores y alumnos sobre la naturaleza de una máquina de este tipo para que no la consideren una fuente de conocimiento, una especie de amplificador estocástico de palabras. Pero no basta con criticar este enfoque ingenuo del ChatGPT. Como académicos, tenemos el deber de considerar los sistemas de inteligencia artificial. Hay muchos, y algunos de ellos están revolucionando el acceso a la cultura y a la información. Integrarlos en la enseñanza y la investigación puede ser útil para aumentar su alcance y profundidad. En este camino, nunca debemos abandonarnos a la máquina: nuestra tarea es siempre ceñirnos a una vía profunda de discernimiento.
Por último, a la vez que le agradezco su disponibilidad, me gustaría hacerle una pregunta más personal. ¿Cómo conviven en usted la espiritualidad franciscana y el estudio de la inteligencia artificial y la tecnología?
A menudo me preguntan cómo es que un franciscano, cuyo estilo de vida está, en el imaginario colectivo, asociado a la idea de simplicidad y contacto con la naturaleza, aborda estas cuestiones. En realidad, más allá de mi trayectoria individual, los franciscanos siempre han tenido una estrecha relación con la ciencia, desde la Edad Media, y han contribuido activamente a su evolución y difusión. Pensemos en Roger Bacon (1220-92), fraile franciscano y uno de los padres del empirismo. Bacon promovió el uso de la experimentación y la observación directa como herramientas para comprender el mundo natural. También fue ejemplar la obra de Ramon Llull (1235-1315). Este monje ermitaño compuso el Ars magna, una obra que condensaba el esfuerzo por encontrar una ciencia universal que, a través de principios generales, contuviera los principios de todas las ciencias particulares. Llull utilizaba diagramas y figuras para conectar conceptos fundamentales en una especie de lógica mecánica, y afirmaba que con ella se podía obtener la verdad en todos los campos del saber. Sus ideas serían retomadas siglos más tarde por Leibniz (1646-1716), filósofo y matemático alemán, en sus investigaciones sobre la posibilidad de obtener un lenguaje universal; y las investigaciones de Leibniz constituirían más tarde la base de la informática moderna. Pensemos también en Luigi Galvani (1737-98), terciario franciscano, conocido por sus experimentos sobre la electricidad animal, en quien la fe y la pasión por la medicina y la ciencia convivían con serenidad: para él, comprender la naturaleza era una forma de celebrar la obra de Dios. En el ámbito de las tecnologías digitales, los franciscanos cuentan también con eminentes estudiosos. En otras palabras, mi interés forma parte de una larga tradición.
- www.paolobenanti.com/ Entre sus numerosas publicaciones, destacamos: The Cyborg: corpo e corporeità nell’epoca del post-umano, Asís (Pg), Cittadella, 2012; La condizione tecno-umana. Domande di senso nell’era della tecnologia, Bolonia, EDB, 2016; Postumano, troppo postumano. Neurotecnologie e human enhancement, Roma, Castelvecchi, 2017; Digital Age. Teoria del cambio d’epoca. Persona, famiglia e società, Cinisello Balsamo (Mi), San Paolo, 2020; Human in the loop. Decisioni umane e intelligenze artificiali, Milán, Mondadori Università, 2022. ↑
- El Secretario General de la ONU convocó un órgano consultivo de alto nivel sobre inteligencia artificial (IA), compuesto por 32 expertos en disciplinas relevantes de todo el mundo, para realizar un análisis y formular recomendaciones sobre la gobernanza internacional de la IA, centrándose en el bien común y los derechos humanos, y alineándola con los Objetivos de Desarrollo Sostenible. Véase www.un.org/techenvoy/ai-advisory-body ↑
- European Union, AI Act, art. 3.1. Cfr. www.eur-lex.europa.eu ↑
Copyright © La Civiltà Cattolica 2023
Reproducción reservada