Durante el mes pasado os presentamos al Bot del Fanzine, una iniciativa colaborativa para alimentar a éste Bot, y su presencia en las redes sociales Telegram, FAcebook y el propio blog.
Es estimulante ver cómo la tecnología se puede poner de manera colaborativa al servicio de todos. Nuestro concepto de “bot” es éste, el de una herramienta que bien gestionada puede ayudar a muchos, así la entendemos. Concretamente el Bot del Fanzine es un “Chatbot”. Si un bot es un software de Inteligencia Artificial (IA) que nos ayuda a realizar tareas que nos resultan tediosas, los Chatbots son éste mismo tipo de programas pero capaces de simular una conversación con una persona.
Pero…. ¿tienen un lado oscuro?
Hasta ahora lo que os he mostrado podría llamarse el “lado luminoso de la fuerza”, a pesar de que sí que mostré alguna pincelada de “usos” malintencionados de éstos programas. Por ejemplo bots utilizados para recopilar información con fines publicitarios, copiar datos masivamente, o los que utilizan los virus para detectar las vulnerabilidades de los sistemas y poder penetrar en ellos.
Pero seamos más malvados todavía… En el caso de Bots y Chatbots, cuenta y mucho la intención de las personas que hay detrás. Utilizar estos programas de Inteligencia Artificial para fines publicitarios, o realizar recomendaciones sobre productos orientando al consumidor, no es algo ni nuevo ni malo, ¿verdad? Podría entrar todo en un universo en el que todos ganan. Ahora bien, en el ámbito de la salud todo es más delicado, la ética y la deontología de los profesionales ha de estar presente. Éste tipo de herramientas podría utilizarse de manera poco ética, por ejemplo, orientando a los consumidores (potencialmente pacientes o ciudadanos en busca de respuesta sobre su salud) hacia productos concretos (podrían ser servicios de salud privada, pruebas complementarias de pago, ciertos profesionales o ciertos recursos) por ejemplo.. La delgada linea roja es muy frágil, y la tentación, posiblemente muy grande debido al potencial de la herramienta.
¿Está todo perdido?
No, por favor. No quiero ahuyentarlos de los avances tecnológicos, pero sí sembrar en todos un poco de pensamiento crítico, que siempre es bueno. Existe una declaración sobre el desarrollo y la utilización de éstas tecnologías que quiere servir de base para su desarrollo y su uso adecuado.
La llamada Declaración de Barcelona sobre desarrollo y utilización adecuados de la inteligencia artificial en Europa fue impulsada por Luc Steels, profesor de investigación ICREA, y Ramón López de Mántaras, del CSIC a principios de 2017. Su intención es la de sensibilizar a la sociedad de riesgos y beneficios de la IA, además de comprometer a quienes la crean, diseñan o utilizan con los siguientes principios: prudencia, transparencia, responsabilidad y fiabilidad.
Adelantándose a su más que posible regulación proponen los siguientes principios:
-
Prudencia. Prudencia en la aplicación de éstas tecnologías ya que “muchos problemas fundamentales de la inteligencia artificial aún no están resueltos y su solución requerirá desarrollos revolucionarios”, por lo tanto de se han de extremar las precauciones para evitar problemas que pueden ser muy perjudiciales.
-
Responsabilidad. Se ha de ser responsable en el uso y desarrollo de éstos sistemas, probándolos y determinando su seguridad y fiabilidad, sobre todo en campos como el de “robots” autónomos o la medicina. O como es nuestro caso en la salud.
-
Transparencia. Éstos sistemas de IA han de ser transparentes para los usuarios, sobre todo si las decisiones de ésta tecnologías les afecta. Se pone en la declaración ejemplo de préstamos, decisiones legales, seguros, impuestos, etc. Y yo os pregunto, ¿y cuando se trata sobre un consejo de salud?
-
Identificabilidad. Sobretodo en el uso de Chatbots u otros robots conversacionales, pueden estar diseñados de manera maliciosa para manipular opiniones, propagación de hechos falsos, extorsión entre otros. Éstos bots rara vez proporcionan la identidad de las personas que se encuentran detrás de ellos. Los impulsores de la declaración proponen, “obligar a identificar cuando una interacción proviene de un ser humano o de un sistema de AI y, en este caso, a que los responsables del sistema puedan ser rastreados e identificados.”
-
Autonomía restringida de los sistemas. Existen muchos ejemplos de éstas tecnologías de IA que afectan y/o actúan sobre el mundo real. Un ejemplo puede ser el de los coches autónomos. Desde la declaración se propone la creación de un conjunto de ”reglas claras para la restricción del comportamiento de los sistemas AI autónomos, además, de la necesidad de aclarar quién es responsable de un potencial fallo del sistema.”
-
Papel de los seres humanos en relación con la IA. Se plantea como un error muy serio la suplantación de la inteligencia humana por la IA, por ejmeplo en empresas que reemplacen empleados. En la declaración refieren que “todos los sistemas de IA dependen a un nivel crítico de la inteligencia humana. Por ello el conocimiento humano debe continuar siendo enseñado, desarrollado y ejercido”.
Aquí tienes disponible Declaración de Barcelona sobre desarrollo y utilización adecuados de la inteligencia artificial en Europa.
Queda mucho camino por recorrer, la IA manifestada por los “bots” se ha puesto al alcance de nuestra mano. Debemos ser coherentes, responsables y serios en su utilización. Y sobre todo en el ámbito de la salud, en la que se nos abre un ilusionante campo competencial, que debemos llenar con nuestros conocimientos. Particularmente las enfermeras, para aportar beneficio al cuidado de la salud.
Las enfermeras tenemos mucho que aprender y que aportar en salud a través de las nuevas tecnologías que se abren camino en nuestra sociedad. ¿Aceptas el reto?
Deja un comentario