La neutralidad del algoritmo

Vivimos tiempos en los que todo responsable de tomar una decisión, en cualquier ámbito de la vida, ya sea política, económica, social, empresarial, o administrativa, busca justificación de la misma en los resultados de la aplicación de un algoritmo.

Si el algoritmo acierta, el responsable en cuestión se apunta el tanto y, en caso contrario, siempre hay a quién culpar. A fin de cuentas imaginamos el algoritmo como una fórmula matemática y, a veces, las fórmulas matemáticas contienen errores y no apuntan bien la solución de los problemas.

El algoritmo recoge datos, los analiza, los distribuye de acuerdo con el plan de distribución que le hemos indicado. Pero cuidado, no distribuye esos datos sobre un plano, sino en un espacio multidimensional, en función de los criterios con los que le obliguemos a trabajar. No hablamos de una fórmula matemática, sino de un cálculo geométrico.

Con el algoritmo ocurre lo mismo que con el bisturí. Considerado como herramienta podemos pensar que es neutral, pero depende de las manos que lo empuñan, como el algoritmo depende de las intenciones de quien lo programa y lo utiliza. Una empresa capitalista, un gobierno democrático, un gobierno dictatorial, una organización no gubernamental, o una organización mafiosa, utilizarán el algoritmo de formas bien distintas y conseguirán resultados equilibrados y objetivos, o sesgados e injustos.

A fin de cuenta somos los seres humanos los que pedimos a nuestros técnicos que hagan funcionar nuestros cada vez más potentes ordenadores para hacer mucho más rápido lo que nosotros tardamos mucho más en realizar. Podemos creer que los algoritmos realizan un cálculo matemático, reconocen a un delincuente, traducen un texto, o interpretan una partitura de forma automatizada, rápida y hasta más inteligente que nosotros, pero la verdad es que sin alguien que elabore los criterios y modelos, el algoritmo no haría nada.

De ahí que la supuesta neutralidad del algoritmo se encuentre a merced de quienes toman las decisiones sobre los datos que se utilizan y los criterios con los que se manejan. Cuando nuestros gobiernos europeos utilizan algoritmos recurren a herramientas diseñadas por empresas en Estados Unidos, o China, fundamentalmente. En estas condiciones, la veracidad de cuanto salga de esos procesos y la neutralidad de las propias herramientas con las que se trabaja, son siempre cuestionables.

Hemos podido comprobar que la utilización de datos de identificación, seguimiento y reconocimiento de personas durante la pandemia, preocupan en Europa, pero no tanto en Corea, China, o hasta en Estados Unidos. Estamos en los comienzos de la revolución digital, en los inicios de las interacciones entre nosotros y los robots, el uso de los algoritmos, la inteligencia artificial, que no hará más que crecer en los próximos años y décadas.

Estamos en el momento en el que podemos hacer posible que los famosos algoritmos, la Inteligencia Artificial, el big data, las nuevas tecnologías, se regulen de forma que se impida su mal uso, la manipulación, la utilización abusiva, tanto en ámbitos nacionales como internacionales.

Pero con las regulaciones de las nuevas tecnologías pasa lo mismo que con las prohibiciones en tiempos de pandemia. Si no existe la convicción personal y el autocontrol, no hay policía capaz de hacer que las fiestas, los botellones, las infracciones se multipliquen, sin que sirvan de nada las multas que luego nadie paga. Si esto ocurre con los particulares, qué no ocurrirá con  las grandes corporaciones mundiales que gobiernan el desarrollo de las nuevas tecnologías.

Por lo tanto, tenemos que concluir que todo depende de nuestra conciencia, nuestra responsabilidad y nuestro conocimiento (nuestra formación y educación) en el uso de las nuevas tecnologías. A fin de cuentas la buena marcha negocio de esas grandes corporaciones depende de los datos que obtienen de nosotros y a cambio de los que, por cierto, no nos pagan peaje alguno.

Con nuestros datos, los que obtienen constantemente de nuestra propia actividad, personalizan los anuncios, preparan los servicios que vamos a demandar, organizan la cobertura de nuestras necesidades, aprovechan la automatización de nuestras compras y hasta anticipan nuestras necesidades, mucho antes de que las comencemos a sentir.

De esta actividad desbocada en torno a nosotros no sabemos nada, ni queremos saber, pero si no ponemos coto alguno, regulación legal y controles personales y democráticos, la manipulación de nuestras vidas, nuestras emociones, nuestros deseos, puede ser una realidad que ni los nazis hubieran podido soñar.

Las empresas tecnológicas saben qué están haciendo, cómo, cuándo, dónde y con quienes, pero eso no ocurre con nosotros. Nosotros sólo navegamos, dejamos rastros, huellas de páginas visitadas, lugares por los que nos movemos, en los que entramos y salimos, tiempo que permanecemos, compras que realizamos, datos personales, fotos, todo tipo de información, hasta cuántas cañas tomamos y dónde.

Esos datos que cedemos inconscientemente son procesados por algoritmos que nos terminarán situando en un lugar de su espacio geométrico. Datos que serán comprados, vendidos y, en función de ellos las empresas programarán sus actuaciones, desde la publicidad, hasta los productos, créditos, seguros que vamos a comprar cuando ellos decidan.

Pero igual que tomar unas cañas, o llevar una gran pulsera con la bandera nacional no nos hace necesariamente más libres, tampoco los algoritmos, el big data, o las nuevas tecnologías, tienen, por sí mismos, la llave para evitar que los nuevos poderes de Amazon, Google, Facebook, Appel, Microsoft y unas cuantas compañías orientales, acaparen el control, condicionen nuestra libertad, monopolicen los medios de comunicación, amenacen la libertad de información.

Como tampoco van a evitar que las desigualdades aumenten, las tensiones sociales crezcan y se encaminen hacia  estallidos sociales y callejones sin salida. Haremos bien, por tanto, en incrementar nuestro esfuerzo de formación, concienciación, responsabilidad y gobierno democrático de los intensos procesos que se avecinan.

A fin de cuentas, no hay algoritmo neutral.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *