Entrevista a Rafael de Asís Roig, Catedrático de Filosofía del Derecho de la UC3M

“Los robots y las leyes del futuro”

.

.

UC3M / Rafael de Asís Roig (Granada, 1963) es catedrático de Filosofía del Derecho y miembro del Instituto de Derechos Humanos Bartolomé de las Casas de la Universidad Carlos III de Madrid (UC3M).

Rafael de Asís Roig / Imagen: UC3M

Autor de una decena de libros y coautor de otros tantos, ha impartido cerca de dos centenares de conferencias, en la actualidad su interés investigador se centra en el estudio de la igualdad y no discriminación, los derechos de las personas con discapacidad y la interpretación y argumentación jurídica.

El próximo viernes 27 de septiembre participa en la tertulia que se celebra en el marco de la Noche de los Investigadores de Madrid bajo el título: “Los robots y las leyes del futuro”, un encuentro entre científicos, tecnólogos y legisladores para analizar los retos del Derecho ante avances tecnológicos como la robótica.

.

UC3M. A la Justicia se achaca lentitud… ¿cree que las nuevas tecnologías agilizan los procesos legales y jurídicos?

Sin duda que sí. Está claro que la llegada de la informática a los tribunales ha provocado cierta aceleración en los procesos y un cambio en la metodología de los operadores jurídicos.

Las nuevas tecnologías facilitan mucho nuestra vida diaria, pero, ¿hasta qué punto son fuente de problemas en la aplicación de justicia?

Tradicionalmente, los avances tecnológicos provocan cambios sociales que, al menos al principio, son fuente de problemas éticos y jurídicos. Como es sabido, el progreso tecnológico no implica necesariamente un progreso ético, pero tampoco un retroceso ni un daño.

¿Son necesarios cambios legales por la llegada y el impacto de nuevas tecnologías, como las redes sociales, a nuestras vidas?

Pues eso depende de la manera en la que ese impacto afecte a la sociedad. Así por ejemplo, está claro que los jóvenes tienen un concepto de intimidad diferente al de los mayores y esto puede hacer que aspectos que ahora consideramos cuestionables jurídicamente, no tengan por qué serlo en el futuro. Pero también se pueden dar casos en los que la cuestión vaya a la inversa.

¿Los cambios en el Derecho van al ritmo de las nuevas tecnologías?

No. Existe un principio que identifica al Derecho y que hace que los cambios jurídicos sean lentos. Se trata del principio de seguridad jurídica. En todo caso, debemos ser conscientes de que la sociedad tampoco cambia al ritmo que lo hacen las nuevas tecnologías por lo que, de alguna manera, este cambio más lento de Derecho posee una función protectora.

¿Cuáles son los principales retos legales ante la llegada de nuevos avances científicos y tecnológicos?

Creo que hay dos temas recurrentes sobre lo que más se trabaja en este campo y que tienen que ver con la privacidad y con el consentimiento. No obstante, las tecnologías convergentes nos presentan un panorama de retos que se proyectan en el corazón de la Ética y del Derecho y que afectan a los derechos humanos (cuestiones como la definición de lo humano, de la dignidad o de las relaciones sociales).

¿Qué se entiende por tecnologías convergentes?

Me refiero a la combinación de tecnologías transformativas como la nanociencia y la nanotecnología, la biotecnología, la biomedicina y la ingeniería genética, la tecnología de la información, las ciencias cognitivas… la convergencia de estas tecnologías presenta sin duda grandes retos, algunos de ellos comunes a todas.

¿Puede un robot llegar a tener los mismos derechos y obligaciones que una persona?

En principio la contestación más fácil es la del “no”. Y ello es así porque, en primer lugar, los derechos y las obligaciones son fruto de una decisión humana. Pero claro, si pensamos que los derechos y las obligaciones se tienen por poseer una serie de facultades, competencias, capacidades o sentimientos, la contestación debería ser “depende cómo sea el robot”. Aun así, siempre nos quedaría lo primero.

Si ahora un robot causa daños a una persona por su mal funcionamiento, ¿de quién es la responsabilidad?

Es difícil contestar de manera general porque todo dependerá del caso concreto. Está claro que, en línea de principio, desde un punto de vista ético, podemos pensar en tres posibles agentes morales: el creador, la empresa y el usuario. Y tenemos que utilizar la distinción entre responsabilidad directa e indirecta.

Y en el futuro, si la Inteligencia Artificial dota a los robots de cierta autonomía, ¿de quién sería la responsabilidad?

Pues dependiendo entonces del grado de autonomía que se alcanzara, la diferencia con la pregunta anterior es que aparecería un nuevo agente moral: el robot.

¿Serían viables unas leyes de la robótica como las que establece Asimov en sus novelas?

Constituyen un punto de partida pero, en la actualidad, son insuficientes e incluso cuestionadas por algunos (e incumplidas). Creo que es necesario un debate ético sobre la robótica (ya iniciado con la roboética) que se plantee su sentido y aplicación y que permita proponer algunas normas que rijan su funcionamiento, al igual que lo que está ocurriendo en el campo de la biomedicina.

Parece un campo por explorar, ¿no?

Yo animaría a la realización de estudios éticos y jurídicos sobre las llamadas tecnologías convergentes, ya que me parece que es un campo poco explorado y que nos plantea algunos de los principales retos de este siglo XXI.