Revista Humanizar

Suscríbete y recibe cada dos meses los ejemplares de la revista de referencia en el mundo de la humanización de la salud.

Suscríbete y colabora con nuestra misión

"Valores éticos en las decisiones programadas"

La inteligencia artificial (IA) ya está presente en nuestras vidas. La facilidad que esta tecnología proporciona al progreso tecnológico hace posible que ya se puedan utilizar de manera cuasi cotidiana, para muchas actividades de la vida, incluyendo educativas, artísticas y sanitarias entre otras. Lo que era una posibilidad se ha convertido en una realidad.

Es verdad que en sus casi 70 años de recorrido se han llevado a cabo reflexiones y propuestas, que muchas veces ha quedado opacadas por el propio desarrollo.

 

DIFERENTES INTELIGENCIAS

El análisis ético de la IA es una cuestión compleja, porque no es un proyecto único sino que presenta 3 variantes y cada una exige un análisis diferente. Se reconoce una inteligencia superior o superinteligencia, que podría sustituir al ser humano, como manifestación de transhumanismo; un segundo tipo de inteligencia es la inteligencia general, aquella que puede resolver problemas generales, su objetivo es conseguir que una máquina tenga una inteligencia de tipo general, similar a la humana, el problema es que la máquina no tiene intencionalidad, solo simularía intencionalidad, valores, emociones, etc.; y por último, la inteligencia especial es la que lleva a cabo trabajos específicos, es la propia de sistemas inteligentes capaces de realizar tareas concretas de forma muy superior a la inteligencia humana, porque pueden contar con una inmensa cantidad de datos y también con algoritmos sofisticados, que pueden llevar a resultados, aquí el tema es cómo orientar el uso humano de estos sistemas de forma ética.

 

PROBLEMÁTICAS ÉTICAS

A ojos de los estudiosos del tema, se pueden extraer dos grandes cuestiones que tienen que ver con la ética y la IA.

Una cuestión es la de la toma de decisiones, de lo que constituye, como se ha comentado, la inteligencia especial, porque la IA es una manera de plantear cursos de acción, curso que se propone como más adecuado en función de los parámetros que está analizando e integrando en su desarrollo algorítmico. En este sentido la IA cuenta con miles de millones de parámetros que permiten afinar más en la respuesta, en la decisión última a adoptar. Baste un ejemplo, en Radiología, gracias a la digitalización de imágenes, que supone traducir a lenguaje matemático la imagen, se comparan millones de imágenes de una misma lesión lo que permite afinar en el diagnóstico radiológico, siendo más certera la interpretación de la misma. Esta es la decisión técnica que presenta el sistema de IA, porque el sistema carece de intencionalidad.

Pero hay que considerar que la IA ofrece una solución que, a priori es la óptima, pero al tiempo presenta otras soluciones, también plausibles, siendo el sujeto, el ser humano, quien finalmente tiene que optar por una de ellas, es la persona la que toma la última decisión. La metodología responde a los algoritmos y a la comparativa de parámetros similares, y los contextualiza con los elementos que se le presentan. Esta es la decisión ética, la que toma el ser humano considerando los aspectos técnicos que se nos ofrecen pero, y sobre todo, los valores, el contexto en el que se desarrolla, es decir tomar la decisión prudente considerando que la decisión tiene que ser la óptima para el sujeto de la decisión.

 

RESPONSABILIDAD ASISTENCIAL

Supone que el programa propone una acción, pero dejando la puerta abierta a otras posibilidades, y esto se va a convertir en un ejercicio de responsabilidad asistencial, que es el objeto de la ética, responder responsablemente, porque ante un caso conflictivo en el que se haya optado por otra de las soluciones propuestas por el programa, pero no la óptima, y el resultado sea, por ejemplo, el fallecimiento o complicaciones sobrevenidas, habrá que explicar con mucha convicción porque se ha optado por esa solución.

Se puede hacer un parangón con el método deliberativo de D. Gracia. Así, la IA ofrece también cursos de acción, pero solo tiene en cuenta los hechos y no los valores, es decir, cursos de acción técnicos. Podemos decir que la IA adolece de intencionalidad, sentimientos y espíritu, por tanto no es capaz de meter en sus algoritmos los valores por lo intangibles que pueden ser. La IA solo responde ante los hechos y no ante los valores, los cursos de acción que presenta son los que realzan el carácter positivista de la ciencia. Con estos hechos se presenta un curso de acción óptimo pero al no ser contrastado con los valores puede ofrecer una propuesta técnicamente impecable, pero éticamente inaceptable por no considerar a la persona y sus valores como moduladores de la respuesta. Otra cuestión es si en un futuro se podrán incorporar estos valores en el árbol de decisión de la máquina. En este sentido la pregunta será si la propuesta es éticamente la más adecuada al considerar y jerarquizar los valores.

Aquí cobrará gran importancia el gestor de los algoritmos, porque la IA se alimenta de algoritmos que son elaborados e introducidos por los generadores de los programas. Cabe preguntarse por los valores, la ética que anima a estos programadores, sean personas individuales o grupos o lobbies. Podremos encontrarnos programaciones que atenten contra valores intrínsecamente fundamentales por conveniencia de determinados grupos que gestionan estos sistemas, como pueden ser discriminación hacia determinados colectivos.

 

CUESTIÓN DE CONFIANZA

Como señala Adela Cortina, una cosa es hacer uso de las inteligencias artificiales y otra cosa es delegar en esos sistemas la toma de decisiones, decisiones que pueden ser significativas para la vida de las personas y la naturaleza. Y es una cuestión de confianza, porque como indicó Cortina, la confianza es la base de la ética y es la piedra angular de las sociedades.

Es imprescindible que los sistemas de IA sean capaces de generar confianza, porque sin confianza el sistema se desmorona. Pero ¿cómo se genera confianza? Parece necesario que los sistemas puedan demostrar que se mantiene la dignidad de las personas en las soluciones que se proponen, que no se genera discriminación entre personas tanto por cuestiones raciales, sexuales o etarias. Generar confianza supone que se puede fomentar una sociedad más justa, con distribución adecuada de las cargas y de los beneficios.

No se podrá humanizar a las máquinas, pero sí que las personas que los programan, que alimentan los algoritmos de trabajo, tengan la suficiente sensibilidad para poder hacer que los sistemas sean potentes, no solo por la fortaleza de sus resultados, sino por la integridad de las personas que los controlan.