Usted está aquí

Ética e inteligencia artificial (I)

El pasado 18 de diciembre de 2018 apareció un borrador que pretende recoger una serie de directrices éticas que deberán guiar la inteligencia artificial (IA), elaborado por un grupo de “expertos de alto nivel” de la Comisión Europea, y cuya intención es sacar la versión definitiva del trabajo en marzo de 2019.

El objetivo del presente artículo es hacer una introducción a los problemas y desafíos éticos que la inteligencia artificial, unida a la robótica y a la utilización de grandes cantidades de datos sobre nosotros, nos presentarán en un futuro muy cercano para, en próximas entregas, hacer un análisis del contenido del borrador y del documento definitivo y su crítica desde una perspectiva liberal.

Hasta la fecha, los aparatos que funcionaban con inteligencia artificial, fundamentalmente robots utilizados en industrias de distinta naturaleza, funcionaban en entornos cerrados y muy controlados, con casi ninguna interacción con los humanos, por lo que no se planteaban riesgos importantes para la integridad física o la vida de las personas. La información que manejaban, además, era muy limitada, y las posibilidades de que un mal uso de dicha información, sin la intervención del ser humano, tuviese consecuencias negativas para los seres humanos eran muy escasas.

Hoy en día las cosas claramente han cambiado: los coches autónomos están ahí; robots diseñados para interactuar y ayudar a ancianos y enfermos son ya una realidad, como lo son también los programas de inteligencia artificial que utilizan grandes cantidades de información sin apenas intervención humana, para procesarla y adoptar decisiones con consecuencias que pueden afectar a miles de personas. En todos estos casos, las máquinas interactuarán con los humanos, y las decisiones que los algoritmos que las dirigen tomen en cada momento podrán tener consecuencias que pueden suponer incluso la muerte de personas.

El problema es que las tres reglas éticas que propugnaba Asimov hace ya más de cincuenta años no son suficientes. En efecto, no basta con programar al “robot” para que i) sus acciones u omisiones no lesionen a los seres humanos, ii) obedezca siempre las ordenes de los humanos salvo que se entre en conflicto con la regla i), y iii) que el robot proteja su propia “supervivencia” salvo que se entre en conflicto con las dos reglas anteriores. Un coche autónomo, por ejemplo, se puede enfrentar al dilema de tener que atropellar a un motociclista para evitar poner en riesgo la vida de las personas que van en su interior o al dilema de tener que atropellar a un motorista que va con casco para no atropellar a otro que va sin él. En estos casos las reglas de Asimov, como vemos, no son suficientes, y el análisis de la realidad, el cálculo de probabilidades y los valores que se les asignen a las consecuencias previsibles pueden ser determinantes a la hora de tomar una decisión.

Muchos dirán que todos estos problemas obligan a que se prohíban este tipo de tecnologías, ya que, afirman, siempre debe ser un ser humano quien tome la última decisión. Lo cierto es que los seres humanos tampoco somos infalibles, cometemos errores, y más en situaciones extremas, en las que las decisiones se toman casi de manera inconsciente y como reacción inmediata a un estímulo externo no previsto. Las “máquinas” serán, en un futuro no lejano, mucho más fiables, más rápidas en el cálculo, se guiarán por criterios parametrizados y previsibles y lo aprendido en una situación concreta podrá aplicarse a lo que le ocurra a cualquier “máquina” a partir de entonces.

Pero los desafíos que se plantean no se refieren sólo a situaciones de vida o muerte como las que hemos planteado anteriormente. Si los programas de inteligencia artificial pueden interactuar con el ser humano, hablar con él, darle consejos, hacerle compañía cuando está sólo o enfermo, recomendarle la compra de un determinado producto, etc., y aprender de lo que hacen, todo ello sin intervención permanente de otros seres humanos que controlen dicha inteligencia artificial, las base de la programación de dichas aplicaciones, así como la forma en que las mismas aprendan de la realidad y de los hechos que van procesando, podrán tener consecuencias importantes, no sólo económicas, en las personas que interactúen con dichas aplicaciones.

Todo ello hace que se planteen muchos desafíos, empezando por determinar si los poderes públicos están o no legitimados para imponer los criterios que deben regir el funcionamiento de dichas inteligencias artificiales, cómo determinar dichos criterios, qué consecuencias puede tener el no seguimiento de dichos criterios, y las responsabilidades de los dueños de los aparatos de inteligencia artificial y de sus creadores si los mismos no funcionan correctamente, o no siguen los criterios “éticos” estipulados, o, a pesar de hacerlo, perjudican la integridad física o el patrimonio de terceros.

De todo ello, precisamente, nos iremos ocupando en próximas entregas.

Comentarios

Cesar

“Cuando un hombre es una tetera vacía, debería estar con ánimo;
y sin embargo estoy destrozado…
Simplemente porque intuyo que podría ser algo parecido a un humano,
si simplemente tuviera un corazón…”
El Hombre de Hojalata del mago de Oz.
No sabe el hombre de hojalata que su frustrada emulación de su ideal -el ser humano- esta mas vacío que él.
El omnisciente legislador no solo carece de alma, no sabe aun hoy como funciona realmente su cerebro: https://www.sciencealert.com/neuroscientists-say-they-ve-found-an-entire...