Ética y responsabilidad: Inteligencia Artificial y robots, ¿son responsables de sus actos?

Publicado por NCCExtremadura en

Pónganse en situación: en lugar de un cuadrilátero coloquen en el centro de una aséptica sala de vistas a un buen puñado de abogados, expertos en diferentes materias, y al otro lado a un robot, metálico, frío, impasible. Los contrincantes van a analizar un enorme volumen de casos judiciales con el fin de determinar quién es más efectivo para estudiar contratos, localizar cláusulas abusivas, errores legales, etc. ¿Quién vencerá? Den por obvia la respuesta. Es difícil luchar contra el poder de cálculo y procesamiento de una máquina diseñada ex-pre-sa-men-te para ese tipo de tareas.

Pese a un extraordinario avance en la contribución que las TIC y, sobre todo, la Inteligencia Artificial (IA) hace a nuestras vidas, por contra, podemos comprobar un pernicioso debilitamiento de la ética en los comportamientos, en las responsabilidades o en la resolución de dilemas o conflictos interpersonales, sociales, éticos y morales.

Damos por hecho que se está estableciendo una distancia muy grande entre lo cotidiano y la evolución de las Tecnologías de la Información y la Comunicación; una fractura que determinará, si no lo hace ya, la calidad de vida futura de todos los seres humanos.

Es indispensable tomar nota de la realidad que se despliega ante nuestros ojos. Ya no se trata solo de quedar perplejo ante las enormes posibilidades-realidades que la robótica y la Inteligencia artificial nos brindan. Si hacemos esto el debate quedará lastimosamente cojo y parcial. Porque en esa lucha entre robot y abogados que detallamos al comienzo, si fuera posible aplicar sus resultados a la realidad más tangible y comprobásemos que se producen errores que perjudican, en el contexto de un contrato, a una persona, ¿quién sería el responsable? ¿el robot? ¿el programador del robot?

La responsabilidad parece haber quedado a un lado, como tantos otros problemas éticos de fácil o difícil resolución, del ámbito de las TIC, de la inteligencia artificial, de todos y cada uno de los fastuosos avances que empequeñecen algunas de las principales capacidades del ser humano. De algunas… pero no de todas. No se trata de hacer una distinción negro-blanco/bueno-malo sobre si robots-sí o robots-no. Se trata de delimitar aspectos humanos en los contenidos tecnológicos, de (re)conocer cuáles son las tareas a las que pueden contribuir de forma más efectiva las máquinas al ámbito humano. Y una de esos deslindes ha de ser el de la responsabilidad.

Pablo Picasso dijo una vez que “las computadoras son inútiles. Solo dan respuestas”. Esta afirmación del artista español tuvo su vigencia natural a comienzos del siglo XX, cuando las computadoras eran en su mayoría máquinas calculadoras que desempeñaban funciones claramente preestablecidas. Pero la expansión de la potencia de cálculo a principios del siglo XXI ha hecho que las computadoras planteen algunas de las interrogantes más exigentes de nuestros tiempos. Y no está claro quién será el responsable de dar las respuestas.

La multitud y variedad de los avances tecnológicos en inteligencia artificial (IA) como la biotecnología, nanotecnología, robótica y neurociencia, por mencionar solo los más destacables y reconocibles, han dejado fuera de la escena a los políticos, a los dueños de las grandes corporaciones tecnológicas, sobre todo a los consumidores… todos ellos intentando entender todas las implicaciones sociales, económicas y éticas. Al parecer solo un reducido grupo de especialistas, entre los que se encuentran filósofos, antropólogos o sociólogos -¡oh casualidad!, todos ellos especialistas en humanidades…- están tratando de aportar si no soluciones sí al menos pensamiento crítico al respecto.

Una segunda cuestión, también difícil de resolver pero igual de apasionante como el caso de los robots y los abogados, es la de cómo construir una especie de «elasticidad ética» como en el caso de los coches que conducen solos. Ya sea para bien o para mal, los que conducimos con nuestras propias manos somos infinitamente flexibles para evaluar la ética de diferentes situaciones, superando reglas como «no adelantar» para dar más espacio a los ciclistas, por ejemplo. Sin embargo, ¿cómo han de programarse los coches sin conductor para reaccionar cuando se enfrenten a una crisis real? ¿Debería proporcionarse a los propietarios de esos coches que no conducen ellos, pero sí disfrutan, de ciertas configuraciones éticas ajustables?

Pero por encima de todas estos ejemplos cercanos, muy reales y actuales, surge una cuestión más grande: ¿quién es el responsable de asegurarse que los últimos avances tecnológicos no sean abusivos?

Parece claro que tanto los gobiernos nacionales como los propios parlamentos están más preocupados por problemas mucho más urgentes, como la austeridad fiscal o el flujo de refugiados…que son temas innegablemente importantes pero…al margen de ello rara vez tienen el tiempo, la libertad política, la capacidad de análisis crítico o la competencia para tomar en consideración desafíos tan abstractos, y menos aún para ayudar a establecer estándares o reglamentos internacionales. Hasta ahora solo nos estamos quedando con el beneficio de la IA… pero como todo en la vida tiene un anverso y un reverso.

Como en tantos otros ámbitos, y las tecnologías no parece que puedan sustraerse a ello, parece inevitable que las regulaciones se arrastren detrás de la realidad. Además, ¿qué detendría a naciones rebeldes el ignorar las normas internacionales y que pongan en uso la edición de genes o el aprendizaje automático o tecnologías cibernéticas para usos destructivos?

Cuánto nos queda por aprender pero, sobre todo, cuánto por decidir.


0 comentarios

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.