CIBERÉTICA: MANUEL ALFONSECA – MAYO DE 2023

FUENTE ORIGINAL: Divulgación de la Ciencia: Ciberética  (divulciencia.blogspot.com)

Un blog de Manuel Alfonseca.

 

Norbert Wiener

Ciberética

En 1948, Norbert Wiener creó el término Cibernética para referirse a una nueva tecnología, que definió así:

Ciencia que estudia el control y la comunicación en el animal y en la máquina

La Cibernética tiene mucho que ver con la Robótica y con el uso de ordenadores y microprocesadores para controlar y para comunicarse, es decir, casi todo lo que hacemos con ellos.

Pero de lo que se está hablando mucho ahora mismo, más que de Cibernética, es de Ciberética: de las cuestiones éticas relacionadas con el uso de ordenadores, redes sociales, y casi todas las demás herramientas que la tecnología moderna pone a nuestro alcance.

Como he dicho en artículos anterioreslas herramientas no son buenas ni malas: lo que es bueno o malo es el uso que hacemos de ellas. Y de esta afirmación se siguen dos corolarios inmediatos: uno bastante preocupante; y otro que, si se lleva a efecto, podría ayudar a paliar esa preocupación. Son estos:

  1. Cualquier herramienta será mal utilizada
  2. Es obligación nuestra tratar de impedir los malos usos de las herramientas

Es obvio que la Inteligencia Artificial, incluso en la forma débil en que la poseemos ahora, es una herramienta muy poderosa. Por lo tanto, de acuerdo con el corolario anterior, su mal uso podría provocar grandes problemas y desgracias. Consideremos algunos:

  • Diseminación de información incompleta, tendenciosa o simplemente falsa. Hemos visto que herramientas como ChatGPT y sus sucesoras y competidoras hacen precisamente esto. Al haber sido entrenadas con grandes cantidades de información extraída de la Internet, dado que esta información es a menudo incompleta, tendenciosa o falsa, esas características se trasladan automáticamente a las contestaciones que dan a las preguntas que se les dirigen. En artículos anteriores señalé que, actualmente, estas herramientas son útiles sobre todo para las personas que saben ya la respuesta a sus preguntas, o sea, para quienes no las necesitan. Quienes las necesitan no deberían fiarse de las respuestas que reciben, porque están programadas para contestar algo, aunque no encuentren la respuesta.
  • Sustitución de trabajadores humanos por máquinas. Esto ha ocurrido desde el comienzo de la revolución industrial, hace más de dos siglos, pero algunos piensan que ahora podría suceder de forma masiva y dejar sin trabajo a millones de personas en muy poco tiempo. En un artículo publicado en 2013, dos profesores de Oxford, Carl Benedikt Frey y Michael Osborne, predijeron que el 47% de los empleos de Estados Unidos están en peligro de ser sustituidos por robots antes de 2030. Aunque al parecer, unos años después, los autores matizaron la predicción, este temor ha crecido últimamente, como consecuencia del auge de las nuevas herramientas de IA, alguna de las cuales ha llegado a desempeñar el papel de asesor o miembro del consejo de administración de una empresa.
  • Algunas aplicaciones de la inteligencia artificial aumentan los riesgos que nos amenazan en la vida ordinaria. La investigación sobre la conducción automática de automóviles está muy avanzada, pero los avances prácticos son lentos, más que por culpa de la tecnología, porque falta legislación sobre los problemas que puede provocar cuando se produzcan accidentes, que sin duda se producirán. Las armas autónomas, que cada vez se utilizan más, aumentan los riesgos de unos conflictos bélicos que, desgraciadamente, no han desaparecido. Y ya hace décadas que los algoritmos de gestión de carteras vienen provocando efectos indeseables en las cotizaciones de la bolsa.

En cambio, los temores de que las aplicaciones de AI lleguen a ser conscientes y tomen el control del mundo carecen de fundamento. Lo primero quizá no sea posible, y en caso de serlo sería a muy largo plazo. Lo segundo podría ocurrir, pero sólo si somos tan tontos como para sustituir por herramientas informáticas a los seres humanos que ocupan los puestos clave.

Sin embargo, como señala el Future of Life Institute, las aplicaciones de inteligencia artificial, como los misiles atraídos por el calor, no necesitan ser conscientes para perseguir sus objetivos. Esta preocupación ha impulsado a este instituto a patrocinar una recogida de firmas para pedir que se suspenda durante seis meses la investigación en aplicaciones como ChapGPT, GPT4 y sus seguidores y competidores, mientras se estudian las consecuencias éticas desfavorables que puede provocar el uso inadecuado de estas herramientas. Esta iniciativa ha recogido casi 30.000 firmas. Dudo de que esa pausa de seis meses sirva para algo.

En paralelo con esta iniciativa, el CAIDP (Centro de IA y Política Digital) ha denunciado a OpenAI (empresa creadora de ChatGPT y GPT4) ante la Comisión Federal de Comercio de los Estados Unidos (FTC), acusando a GPT4 de ser un producto engañoso que representa un riesgo para la seguridad pública, y solicitando la suspensión de sus versiones futuras.

Estas medidas quizá permitan aplazar algún problema. Existe el precedente de la investigación en manipulación genética, que también puede provocar peligros considerables, algunos de los cuales aún nos amenazan. Ante cuestiones tan importantes no conviene ser demasiado atrevidos. Es mejor pasarse de cautos.

En su famoso libro Cybernetics (1948, 1961) que dio nombre a la disciplina, Norbert Wiener recomienda también la cautela. Y lo hace mencionando un cuento de terror escrito a principios del siglo XX por el inglés W.W. Jacobs:  La pata de mono. Tras resumir el cuento, termina con estas palabras:

En estos cuentos la enseñanza es que los agentes mágicos tienen mentalidad literal… Las máquinas que aprenden también tienen mentalidad literal. Si programamos una máquina… y pedimos que nos consiga la victoria, y la máquina no sabe lo que queremos decir con eso, podemos encontrarnos con el fantasma llamando a nuestra puerta.

En una encuesta realizada en 2016 y 2022 por el proyecto AI Impacts entre más de 700 expertos en IA, los resultados obtenidos son los de la figura, obtenida de economist.com. En seis años, las previsiones más bien optimistas de 2016 (45% buenas, 20% neutrales, 15% malas) se han vuelto claramente peores: 30% buenas, 15% neutrales, 15% malas. Es curioso que el 20% que han perdido las previsiones buenas y neutrales no se haya traspasado a las malas previsiones, sino (supongo) al “no sabe no contesta”.

Pero quizá la cuestión sea más profunda. ¿Está alguien tratando de aprovechar los avances en IA para controlar mejor a los seres humanos? Porque, en el fondo, se trata de eso: no de que seamos (o no) controlados por las máquinas, sino de que unos seres humanos controlen mejor o peor a otros. Ese ha sido siempre (y sigue siendo) el objetivo de todos los dictadores. No debemos olvidar que en el mundo actual hay muchos más dictadores (en potencia o en acto) que los que todo el mundo conoce.

Por último, quisiera hacer referencia a un artículo reciente sobre el tema de la ética de las máquinas, publicado por Gonzalo Génova en su blog De máquinas e intenciones.

 

Manuel Alfonseca

Dedicado a José Amengual, que me sugirió este artículo.

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Información sobre protección de datos:

  • Responsable: CENTRO DIEGO DE COVARRUBIAS
  • Fin del tratamiento: Controlar el spam, gestión de comentarios
  • Legitimación: Tu consentimiento
  • Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  • Derechos: Acceso, rectificación, portabilidad, olvido.
  • Contacto: info@centrocovarrubias.org.
  • Información adicional: Más información en nuestra política de privacidad.