Es evidente que la tecnología evoluciona y, por tanto, la robótica y la programación de algoritmos lo hacen en paralelo. La inteligencia artificial es cada vez más inteligente y sofisticada. Cabe plantearse dudas sobre la situación jurídica futura de nuestros robots. Hagamos un ejercicio de hipótesis de futuro en el que sea necesario dotar de personalidad a nuestros algoritmos-robots.
La ciencia ficción nos ha mostrado durante décadas un futuro robotizado, en el que los androides están humanizados al máximo, y que en algunas ocasiones es complicado distinguirlos de los propios hombres. Muchas han sido las películas presentes en nuestras carteleras que han tratado el tema de los robots, y cómo estos se normalizan o se normalizarán en el día a día de nuestras vidas y ciudades. En estas historias futuribles, incluso el robot es más inteligente y poderoso que el humano.
Al fin y al cabo, por mucho que el ser humano se crea superior, no deja de ser un robot biológico. Sensores (sentidos), maquinaria (órganos) y una superunidad central (cerebro) que reacciona a los estímulos en forma de respuestas cognitivas o automáticas. Todo un robot perfecto, que es el sueño actual de nuestros investigadores llegar a emularlo. Podemos discutir que no somos robots, aduciendo que poseemos rasgos como sentimientos, creatividad, compasión, tristeza o ira. Pero no dejan de ser acciones programadas de respuesta que nuestro cerebro dicta. Si cuando nos comunican una mala noticia, nos preocupamos o entristecemos, es porque esa respuesta la llevamos instalada en nuestra unidad central de proceso.
Si un día la inteligencia artificial es capaz de reaccionar a los estímulos como lo hace un humano, con posibilidad de improvisación, con ciertas variables de moralidad y ética -que no olvidemos que se basan en experiencia o en aprendizaje-, nos costará mucho definir eso que llamamos humanidad.
Siempre hablamos de los robots como protagonistas, aunque no dejan de ser pura chatarra que no funcionaría si no existieran uno o varios algoritmos que los hacen realizar tareas o procesos. El robot no haría nada sin la programación interna. Lo mismo que una persona deja de serlo si su cerebro, y más concretamente, si sus conexiones neuronales dejan de funcionar. Al final, si hablamos de robots, debemos fijarnos en el software que llevan dentro para hacerlos funcionar.
Si una persona tiene derechos, ¿por qué no un algoritmo o un robot?
Imaginemos que un programador diseña un algoritmo para ganar dinero en Bolsa y este autoevoluciona tanto que se parece muy poco al original. Se hace independiente y acaba siendo autónomo, sin ninguna conexión con su autor. Según nuestro pensamiento actual y según nuestras leyes de propiedad intelectual, se consideraría una obra derivada cuya propiedad un juez seguramente atribuiría al creador original por no intermediar otro autor, y, sobre todo, por ser creada por una máquina.
O quizás no pertenecería a nadie humano. El algoritmo, según las leyes futuras, podría pertenecer a sí mismo. Y si ganara dinero en los mercados financieros, ese algoritmo tendría atribuido unos derechos monetarios. Dirán ustedes que seguiría ingresando los beneficios en la cuenta bancaria del autor primario. Pero puede que ese algoritmo decida que esa situación no es eficiente, porque un tercero (el primer programador) podría detraer dinero necesario para invertir, y lo transforme en bitcoins o en otro instrumento financiero irrecuperable para un humano.
Esa situación se podría dar perfectamente en el futuro, lo que nos lleva a pensar en una posible personalidad algorítmica, capaz de ser titular de derechos y obligaciones. Entre las obligaciones, siguiendo el ejemplo, podría estar el pagar impuestos sobre beneficios.
¿Y dentro de nuestra empresa?
Ahora mismo es ridículo pensar que nuestra máquina automática de café puede tener algún tipo de derecho, obligación o responsabilidad. Sabemos que, si esa máquina causa algún perjuicio, reclamaremos al instalador o al vendedor.
Pero en el futuro no será tan sencillo. Si nuestro robot, máquina o artilugio es tan sofisticado que es imposible atribuir una hipotética responsabilidad a nadie en concreto, será necesario imputar obligaciones y derechos a una personalidad algorítmica. Nuestra lógica actual nos dicta que siempre habrá un humano detrás al que atribuir responsabilidades: el programador, el vendedor, el propietario de la empresa creadora o de los derechos de propiedad. Sin embargo, según evolucione la inteligencia artificial, no estará tan clara la vinculación concreta a una determinada personalidad jurídica de las clásicas.
Casi siempre un derecho conlleva una o varias obligaciones. Aunque no siempre ocurre, al contrario. Lo importante es que es necesario que esos derechos y obligaciones sean atribuidos a alguien, para poder derivar responsabilidades. Quizás deberíamos redefinir conceptos jurídicos como voluntad, sujeto interviniente o capacidad de obrar. En este sentido, ¿un algoritmo podría firmar un contrato? Seguimos pensando que esa idea sería ridícula. Seguramente en 20 o 30 años no lo será tanto.