Algorética
Cada vez que surge una nueva tecnología se producen dos tendencias básicas: los tecno-optimistas y los tecno-pesimistas. Los primeros desbordan de entusiasmo y adjudican al nuevo invento una especie de panacea respecto a su aplicación a un sector específico o al conjunto de la realidad. Los segundos se inquietan dramática y apresuradamente por las innovaciones, en muchos casos incomodados por los cambios de aprendizajes y rutinas que ellas provocan. Desde los tiempos más remotos este dilema desafía a cada generación.
Hoy día esta cuestión se verifica especialmente en el campo de la bioética y en la multiplicación de tecnologías de la información y la comunicación. Muchos recodarán, por ejemplo, en el campo de la educación, las discusiones que aún perduran sobre el uso en las aulas de las calculadoras, el acceso a Internet o el uso del celular.
Recientísimamente, ha hecho su aparición Chat Gpt (Generative Pre-trained Transformer) que se puede traducir aproximadamente como un transformador generativo pre-entrenado que es un procedimiento que simula el modo de escribir humano y es capaz de responder preguntas y mantener “conversaciones”, tomando textos de Internet. De este modo, el Chat Gpt es la primera gran aplicación de Inteligencia Artificial (IA) de alcance masivo en la web. Según algunos especialistas, la IA podría modelar las decisiones de los individuos sin que estos lo sepan y dar un poder abusivo a quienes la controlan.
Aquí entonces reaparece el dilema que indicamos más arriba, y que más allá de su aprobación o rechazo en bloque ante cualquier novedad tecnológica o de cualquier otro orden, nos debe llevar a una reflexión responsable. En realidad, este ejercicio debemos realizarlo en relación a todas las esferas de la vida: las ciencias, la economía, la política, el arte, el deporte… y cualquier otra dimensión de la existencia que queramos indicar. Es decir, todas ellas tienen que ser respetadas en su autonomía y en su dinamismo propio, pero sin absolutizar su aporte específico pero limitado, de ese modo se evita su endiosamiento.
También, las creencias religiosas –al menos en la concepción católica– se deben ajustar a esta regla, asumiendo en un diálogo crítico esas realidades, aportándoles su propuesta de sentido y trascendencia, y así contribuir a no idolatrar lo que es relativo, aunque nos parezca eficiente y útil, evitando usos perversos con efectos inhumanos.
Aplicando estos criterios a las nuevas tecnologías, que funcionan mediante algoritmos (conjunto de reglas automatizadas), se hace fundamental una evaluación ética. Así surge el neologismo “algorética”, es decir, un desarrollo ético de la inteligencia artificial.
En atención a este desafío, a comienzos de 2023, tres representantes del catolicismo, judaísmo y del ámbito musulmán firmaron en Roma el documento Call for Artificial Intelligence Ethics para promover la “algorética”. El documento recuerda el marco de valores fundamentales de la Declaración Universal de los Derechos Humanos, destacando la importancia de la educación que estará profundamente impactada por la disponibilidad de nuevos recursos tecnológicos, a los que debe garantizarse un acceso sin desigualdades. Esto hace emerger la necesidad de incorporar un enfoque ético que acompañe desde el principio cada etapa del ciclo de producción de las tecnologías. Asimismo –prosigue la declaración– no basta con centrarse únicamente en la responsabilidad del usuario final ni confiar en la sensibilidad moral de quienes diseñan algoritmos para evaluar el uso correcto de los sistemas digitales.
Desde otra perspectiva, aunque convergente, crece la preocupación de gobiernos, técnicos, científicos, y de las propias empresas tecnológicas para que los valores humanos estén controlados y presentes en el desarrollo de la IA. Al respecto hay ya una propuesta de reglamento del parlamento europeo por el que se establecen normas en materia de IA capaces de armonizar el progreso tecnológico, el desarrollo empresarial, la protección de las personas y la democracia.
Eloy Mealla
Seminario Permanente Pedagogía Ignaciana
Vicerrectorado de Formación
- Inicie sesión para enviar comentarios