Ética de urgencia

Por: Jesús Ferro Bayona
130 Vistas
doubt, decision, devil-4803407.jpg

Los últimos adelantos de la Inteligencia Artificial (IA) han despertado un debate mundial sobre el  acelerado desarrollo tecnológico y los límites de la ética humana.

Más de mil personas, entre ellas líderes mundiales de la industria tecnológica como Elon Musk, dueño de Twiter, y Bill Gates, fundador de Microsoft, han dirigido al Future of Life Institute una carta que es paradójica

Los firmantes piden a las industrias especializadas en la creación de Inteligencia Artificial que hagan una pausa de seis meses en los avances de la investigación sobre el ChatGPT. El objetivo de la pausa solicitada es que se logre formular, entretanto, un protocolo de seguridad que proporcione bases mínimas para poder controlar lo que parece incontrolable, teniendo en cuenta las predicciones que se hacen acerca de la autonomía que con respecto a sus creadores humanos pueden desarrollar nuevas mentes digitales más potentes que las humanas. Además, temen que puedan darse ciberataques y aumento de imágenes e informaciones falsas que serán muy peligrosas para la humanidad. Es decir, se corren riesgos exponencialmente más dañinos que los que padecemos en la actualidad con la proliferación de informaciones desordenadas y sin verificación que a diario difunden las redes sociales.

No parece lógica la solicitud cuando se sabe que a la industria de las nuevas tecnologías le interesa producir más y más aplicaciones y herramientas para el consumo masivo. El mercado de las tecnologías, y todavía más si se añade la inteligencia artificial, se halla en un crecimiento asombroso que es muy lucrativo. Llama por eso la atención que entre los productores tecnológicos se hable no solo de la necesidad de establecer protocolos de seguridad. Se apela también al establecimiento de responsabilidades por los daños que la inteligencia artificial puede causar, como son los 300 millones de desempleos que están en riesgo cuando las máquinas reemplacen las tareas que hoy hacen los seres humanos. 

También están en la mira de las responsabilidades los efectos que la inteligencia artificial, mal empleada y sin dirección adecuada, pueden tener en la educación como serían la anulación de la capacidad crítica, de la autonomía del razonamiento y la baja del rendimiento creativo de los estudiantes. 

El filósofo español Fernando Savater tituló uno de sus libros Ética de urgencia, que me parece oportuno para referirme a la necesidad imperiosa que tenemos sociedad civil, Estado y educadores no solo de exigir controles, como lo piden los firmantes mencionados, sino de trascender con ética que impregne las conciencias y haga pensar que el crecimiento humano no se reduce a lo material: es un crecimiento espiritual  para que sea plenamente humano.

Jesús Ferro Bayona

Abril, 2023

Publicado en El Heraldo de Barranquilla

4 Comentarios

EDUARDO JIMENEZ 25 abril, 2023 - 6:23 am

Me parece un sin sentido lo que proponen los Sres Musk y Gates, este último, no estoy seguro basado en qué, se considera a sí mismo poseedor de la verdad en cualquier ámbito.
Al parecer su propuesta es detener el progreso. No inventemos, sigamos con el abaco, los coches de caballos y las señales de humo, mientras creamos un “protocolo” que obviamente lo crearán ellos dos, para controlar el progreso. incontrolable.
Francamente se me parece a la teoría del decrecimiento, favorecida por algunos personajes locales. Saludos

Responder
Hernando+Bernal+A. 25 abril, 2023 - 7:19 am

Chucho: Me parece muy informativo y muy claro tu artículo. Yo si siento la necesidad del desarrollo de pautas éticas para el progreso y manejo de las tecnologías. Cordialmente. Hernando

Responder
Jesús Ferro 25 abril, 2023 - 10:54 am

Eduardo:

Lo que dices sobre Gates y Muks fue lo que pensé cuando escribía el artículo-

Jesús

Responder
vicente alcala 25 abril, 2023 - 11:13 am

La primera utilidad de este artículo y de la comunicación que cita es la de informarnos sobre esa realidad artificial. Aparte de estar alerta ¿qué podemos hacer personal o grupalmente?

Responder

Dejar un comentario