- “Línea roja”
- ¿Herramienta o arma?
- Ser más humanos con la IA
- Mejores sacerdotes y religiosos
- Precaución en los colegios
- Reemplazar al ser humano
- Principios universales
En el primer foro de encuentros interdisciplinares del año, la Fundación Pablo VI invitó a Carme Artigas, ex secretaria de Estado de Digitalización y copresidenta del órgano asesor de la ONU para la IA; y Paolo Benanti, fraile franciscano, presidente de la Comisión para la IA del Gobierno de Italia y consultor del Vaticano, a reflexionar sobre la revolución digital y sus límites, así como su impacto en la identidad humana, con un diálogo que lleva por título “Era digital, ¿un nuevo ser humano?”
Y es que la robotización está impactando en el empleo, el bienestar social, la cultura; y el sentido de las relaciones humanas y familiares se ve condicionados por el uso de la tecnología. Hay quienes dicen que esta era digital abre, incluso, un nuevo concepto de ser humano.
“Línea roja”
Paolo Benanti indicó en el coloquio que la “línea roja” en la aplicación de la IA debe ser “la dignidad humana” y ha asegurado que la IA puede ayudar a hacer “mejores” médicos, abogados, ingenieros y sacerdotes. “Quien aplica la inteligencia artificial debe saber que hay una línea roja, no traspasable, que es la línea de la dignidad humana. Todo lo que vaya más allá de esta línea es absolutamente inaceptable”, ha señalado Benanti, en una entrevista con Europa Press.
¿Herramienta o arma?
El sacerdote franciscano recientemente, ha publicado el libro ‘La era digital. Teoría del cambio de época: persona, familia y sociedad’ (Ediciones Encuentro). Benanti ha comparado la IA con un palo utilizado en una cueva hace 60.000 años.
“El garrote podría haber sido una herramienta para abrir más cocos o una herramienta como un arma para abrir más cráneos. Así que no hay arma que no pueda convertirse en herramienta y no hay herramienta que no pueda convertirse en arma”, ha ejemplificado.
Ser más humanos con la IA
Por ello, ha invitado a abordar la inteligencia artificial desde una postura de ética, en lugar de hacerlo desde el miedo.
“La ética busca el bien, busca cuál es el máximo bien que podemos hacer. Entonces, evidentemente, si abordamos la inteligencia artificial de una manera ética, podemos empezar a buscar cómo la inteligencia artificial puede ayudarnos a ser más humanos, es decir, cómo la inteligencia artificial puede ayudarnos a ser mejores médicos, mejores abogados, mejores jueces, mejores ingenieros, ampliando nuestras capacidades”, ha afirmado.
Mejores sacerdotes y religiosos
En este sentido, ha señalado que la IA puede ayudar también a formar a mejores sacerdotes y religiosos.
“Imaginemos que la inteligencia artificial sirve como interfaz para llegar a todos los contenidos de todos los textos de fe, puede ayudar al sacerdote a prepararse mejor, así que al menos teóricamente la respuesta es sí”, ha puntualizado.
En el ámbito religioso, el ingeniero y fraile, ha asegurado que la IA puede ayudar a evangelizar en la medida en que se puede utilizar para que los textos estén disponibles en todos los idiomas.
Precaución en los colegios
Por otro lado, preguntado por ChatGPT y su uso en los colegios, Benanti ha aclarado que este tipo de herramientas son “una especie de gran demo” y que quienes las utilizan para la educación “están tergiversando su naturaleza” porque “no son fiables” y existe “gran posibilidad de que haya cosas inventadas”.
En todo caso, ha explicado que la IA puede ayudar a cambiar el enfoque para que la educación no sea como una cadena de montaje sino que se adapte a las necesidades de cada alumno.
“Podemos pasar de una educación que es una especie de cadena de montaje fordista, como en una fábrica donde cada alumno es la pieza que recibe los mismos golpes, a una educación que realmente se adapte a las necesidades y recursos de cada alumno”, ha añadido.
Reemplazar al ser humano
En todo caso, Benanti ha advertido de que la IA podría convertirse en un “arma” si reemplaza al ser humano o fuerza su libertad.
“Un algoritmo de creación de perfiles y sugerencia de contenidos puede obligarnos a ver el mundo en una determinada dimensión, puede cambiar nuestra libertad forzándola hacia elecciones manipuladoras que no son las nuestras. Así que no podemos tener la garantía de que no haya peligro, pero debemos preguntarnos primero cómo maximizar los beneficios y minimizar los riesgos”, ha matizado.
Si bien, ha insistido en que no es un problema de desarrollo sino de aplicación de la IA. “El día en que tal vez se la utilice para hacer daño a alguien, bueno, eso sí será un problema. Y hay que reconocer la diferencia, el problema nunca es la ciencia en sí, sino la ciencia aplicada. Y entonces la aplicación de la inteligencia artificial debe ser siempre respetuosa de lo que es el valor principal, que es el ser humano”, ha remarcado.
Principios universales
Por ello, ha apostado por ponerse de acuerdo en unos “principios” universales que se conviertan en “guardarraíles” éticos.
“Supongamos que tenemos un coche que se conduce solo. ¿Podríamos estar todos de acuerdo en que en caso de accidente debe tratar de minimizar los daños?”, ha planteado.
En el vídeo, toda la conferencia en la Fundación Pablo VI.