Con el avance de la inteligencia artificial en los últimos años el mundo se está planteando la creación de una nueva "persona electrónicas" con derechos y obligaciones propios. Análisis sobre esta nueva cuestión y sus implicancias en el derecho civil, penal, laboral y hasta en las decisiones judiciales.
Por Nicolás Grandi*
Desde que tenemos conocimiento, el derecho se ha construido sobre la base de la existencia de una persona física. Fue el propio hombre quien creo categorías dogmáticas para poder formular un sistema normativo mediante el cual se regulara el comportamiento entre los seres humanos.
En un comienzo, las relaciones jurídicas únicamente podían darse entre dos personas, poniendo énfasis en su voluntad y capacidad de discernimiento.
En tanto, con el pasar de los años, las sociedades fueron evolucionando y por ello, resultó necesario crear nuevas categorías jurídicas con el fin de actualizar y regular los comportamientos que acontecían por fuera de la norma.
Así, el tráfico comercial y la necesidad de mayores capitales, con patrimonio diverso al de sus propietarios, generó la creación de las personas jurídicas a las cuales se las dotó de independencia de los hombres que las componían.
Sin embargo, a pesar de la creación de esta nueva clase de persona, no se podía desconocer que, si bien el patrimonio particular de los accionistas no formaba parte del de la sociedad, las acciones que se llevaban adelante, dentro de ella, eran consecuencia de expresiones de conductas humanas.
Es decir, se presentaba una ficción en la cual se refería que quien tomaba la determinación era la persona jurídica, cuando en rigor de verdad eran los hombres quienes lo hacía a través del órgano de deliberación que dirige la empresa.
En síntesis, siempre existía una persona física quien, bajo su discernimiento, tomaba las determinaciones de qué se debía hacer.
Pero ¿qué pasaría si actualmente existiera un ente que pudiera tomar determinaciones racionales sin la necesidad de una persona humana?, ¿Las ciencias jurídicas lo debería reconocer como un sujeto de derecho nuevo? ¿Deberían regular su intervención?
Justamente éstas son algunas de las preguntas que la inteligencia artificial (en adelante IA) trajo al campo normativo actual.
En primer lugar, antes de dilucidar si puede existir un sujeto para el derecho, hay que determinar qué se entiende por IA, ya que existen múltiple ideas en la sociedad al respecto, y que tipo de ésta es la que tiene capacidades similares a las personas.
El término inteligencia artificial fue utilizado por primera vez en el año 1956 por el matemático John McCarthy en la conferencia de Dartmouth.
Sin embargo, no fue éste sino Alan Turing, años antes, quien sentó las bases de la IA al desarrollar cuando una máquina puede ser considerada inteligente.
Para esto utilizó un conocido juego de simulación, cambiando su objetivo, el cual reconocer quién era la mujer, por quién era la máquina. Si la computadora lograba convencer al humano que era su par, ésta ya podía ser considerada inteligente al haber obtenido la capacidad de procesamiento natural del lenguaje, de representación del conocimiento, de razonamiento y por sobre todo de aprendizaje automáticos.
Si bien éste fue el estudio que dio el puntapié inicial de la investigaciones de IA, no dejó asentado una definición precisa sobre ella, sino que sólo se limitó a remarcar cuáles eran las capacidades mínimas que debía tener.
El matemático, John McCarthy intentó precisar el concepto y, la definió como un proceso consistente en hacer que una máquina se comporte de formas que serían llamadas inteligentes si un ser humano lo hiciera.
Por su parte, el Comité Económico y Social Europeo, precisó que el objetivo fundamental de la investigación y del desarrollo en materia de IA es la automatización de comportamientos inteligentes como razonar, recabar información, planificar, aprender, comunicar, manipular, observar e incluso crear, soñar y percibir.
También, afirmó que es un concepto muy amplio que engloba muchas otras sub áreas como la informática cognitiva, el aprendizaje automático, la inteligencia aumentada o la robótica con IA.
Por su parte, la Comisión al Parlamento Europeo refirió que el término IA se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción -con cierto grado de autonomía- con el fin de alcanzar objetivos específicos.
En tanto aclaró que, la IA puede consistir simplemente en un programa informático, o estar incorporada en dispositivos de hardware. demostrando así sus posibilidades de ser corpórea e incorpórea sin cambiar su esencia.
Por su parte los Estados Unidos al lanzar su plan de liderazgo sobre IA, definieron que ésta es una rama de la informática dedicada al desarrollo de sistemas de procesamiento de datos que realiza funciones normalmente asociadas con la inteligencia humana, como el razonamiento, el aprendizaje y la superación personal.
Así, a pesar de los años transcurridos del estudio de Turing aún no se ha llegado a una definición única respecto de qué es la IA, sin perjuicio de que se ha consensuado que esta tiene como objetivo alcanzar un fin específico, maximizando los recursos, analizando la información de igual manera que lo haría una persona humana para que sus decisiones se asemejan a ésta.
Asimismo, hay que diferenciar entre IA débil e IA fuerte. Mientras que la primera tiene las características de sólo ser capaz de realizar tareas específicas, de no ser reactiva, es decir no actúa por sí sola, de no ser flexible, de tener que ser programada por un humano, de imitar el pensamiento humano, ya que por sí sola no puede razonar, y de aprender de los ejemplos que ya fueron insertos en ella.
La segunda es capaz de realizar las mismas tareas intelectuales que un ser humano, resolviendo problemas abiertos de manera flexible, siendo proactiva, auto programándose y teniendo muchas redes neuronales complejas que retroalimentan.
Estas características, de la IA fuerte, fueron el motor que propició que un grupo de profesionales, principalmente filósofos, comenzaran a debatir que, en caso de que esta IA tome determinaciones por sí sola, se debe configurar con anterioridad sobre la base de que tipo de ética las llevará adelante.
Dicha cuestión no es menor y ha llevado a que, grandes exponentes en el mundo de la tecnología y la ciencia, como son Elon Musk y Stephen Hawking, entre otros, emitieron una carta abierta en 2015 describiendo las complicaciones que podría tener liberar una inteligencia artificial sin control alguno al mundo.
Hawking llegó a decir que la IA podría llevar al fin de la humanidad si no es controlada adecuadamente.
En esa dirección, el Parlamento Europeo en el 2019 emitió pautas de éticas para una IA confiable destacando la necesidad de que se programe éticamente esta tecnología para que no domine a los humanos en sus diversos ámbitos, por ejemplo induciendo a los electores en los comicios, en franca alusión al caso de Cambridge Analytica.
Esta posibilidad de asemejarse a las personas físicas y tomar determinación de manera independiente fue lo que llevó a que en el año 2016 la Comisión de asuntos jurídicos del Parlamento Europeo generará un informe sobre robótica en el marco del derecho civil, el cual fue aprobado en 2017.
Allí se destacó que, considerando el gran avance que se está dando en el mundo de la IA, el incremento de la venta de los robots, sumado a la posibilidad de que estos fallen y con ello traiga consecuencias lesivas, la comunidad europea debía evaluar una forma de regulación con el fin de dar seguridad jurídica sobre este tema tanto a las empresas que fabrican IA como a los usuarios que la utilizan.
También se remarcó que en principio, una vez que las partes responsables hayan sido identificadas, su responsabilidad será proporcional al nivel real de las instrucciones dadas a los robots y a su autonomía, por lo que cuanto mayor sea la capacidad de aprendizaje o la autonomía, menor será la responsabilidad de las otras partes, y cuanto más larga haya sido la educación del robot, mayor será la responsabilidad de su profesor.
Asimismo, observó que al tratar de determinar la responsabilidad real de los daños, las competencias adquiridas a través de la educación de un robot no deberían confundirse con las competencias estrictamente dependientes de su capacidad de aprender de modo autónomo.
Así, el Parlamento Europeo entendió que sería necesario crear una personalidad jurídica específica para los robots, de modo que al menos los más complejos y con mayor autonomía puedan ser considerados personas electrónicas con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar; la personalidad electrónico se aplicaría a los supuestos en que los robots puedan tomar decisiones autónomas inteligentes o interactuar con terceros de forma independiente.
Esta nueva perspectiva lleva a pensar nuevos campos en los cuales la IA puede desempeñarse como sujeto de derecho con sus consecuentes derechos y obligaciones.
Y una de la pregunta que se genera como consecuencia de esto, en el campo civil es ¿con qué elementos patrimoniales podrá responder en caso de ser necesario?
En marzo pasado en la Universidad de Alicante, España, se juntaron un grupo de expertos en tecnología y derecho para analizar los retos de la IA y la propiedad intelectual. Allí no se llegó a una conclusión unánime respecto de si la IA puede ser titular de propiedad intelectual pero sí se dejó plasmado que ésta puede crear elemento novedosos, lo cual permite suponer que la imposibilidad de propiedad de aquel derecho deviene de una cuestión legal y no intelectual, lo cual próximamente podría cambiar.
Un ejemplo de esta posibilidad creativa de la IA es el algoritmo GPT-2 de OpenAI, el cual es capaz de crear Fake news tan buenas y creíbles que su desarrollador solo ha liberado este año una versión con el 50 % del código y está estudiando qué implicaciones tiene esta estrategia dentro y fuera de la comunidad.
Esta beta, de la propiedad intelectual, puede ser una posibilidad futura en la cual la IA comience a tener su propio patrimonio y con ello responder civilmente.
Por otra parte, en el campo del derecho penal se están debatiendo otras cuestiones, no ya vinculadas con la posibilidad de responder patrimonialmente de la IA, sino con la posibilidad de que la máquina tenga libre albedrío y tenga conciencias de sus actos, con el fin de poder reprocharle sus acciones.
De momento el único resultado lesivo producto de una IA contra una persona, con relevancia penal, fue el accidente de un vehículo autónomo de UBER en Arizona en 2018.
Luego de más de un año de investigación la agencia de transporte de los Estados Unidos determinó que la culpa no fue de la IA sino de la persona que estaba detrás del volante y debía verificar al rodado, ya que ésta fue complaciente con la automatización del rodado y no prestó la debida atención al camino y por ello el auto no frenó y mató a una señora que cruzaba.
Así, de momento no existen condenas penales al respecto, pero según los estudiosos, como Irving Good, no puede descartarse que en un futuro la IA puede actuar libremente, con conciencias de sus actos y será allí el momento en el cual el derecho penal deba replantearse sus conceptos de culpabilidad y que tipo de pena imponer a una elemento, como la IA, que es atemporal.
Por otra parte, en el campo impositivo tampoco puede descartarse que en un futuro los robots comiencen a tributar por su trabajo, como lo proponen tanto Bill Gates como Elon Musk.
Ellos entienden que si los impuestos son los recursos más importantes para el Estado y, sí en los próximos años se reduce la participación humana en el campo laboral reemplazados por robots con IA, será necesaria adquirir fondos de otra manera para prestar atención a los desempleados, siendo el tributo a la automatización el lugar indicado para conseguirlo.
Se estima que sólo en los Estados Unidos de Norteamérica casi el 50% de los empleos podría estar en riesgo en los próximos 30 años debido a los avances de la inteligencia artificial y la robótica, siendo un ejemplo claro de esto, la irrupción de la conducción autónoma que dejará obsoletos las puestos laborales de transporte.
En tanto en la argentina ya se está analizando el impacto de la IA en el ámbito laboral, tal es así que en noviembre del 2019 la Federación Argentina de Empleados de Comercio y Servicios lanzó un instituto destinado a analizar el impacto de la IA en el comercio nacional.
Por otra parte, los algoritmos también están ingresando en el campo jurisdiccional. Por ejemplo en la República de Estonia los litigios inferiores a siete mil euros son resueltos a través de un sistema con IA, sin perjuicio de que luego esa decisión puede ser apelada ante un magistrado humano.
También en Argentina, más precisamente en CABA, existe un sistema basado en IA, llamado “Prometea” que ayuda al Ministerio Público Fiscal al momento de resolver, dando posibles soluciones a los casos debatidos.
De esta manera la IA está ganando terreno en el campo social, actuando de manera independiente de los humanos. Si bien en la actualidad no se ha llegado a desarrollar la IA fuerte en su máximo exponente, no se puede desconocer que en futuro no muy lejano la tengamos entre nosotros.
Será allí, cuando el derecho deberá tener formada una postura al respecto de si la IA puede ser un nuevo sujeto de derecho o debe ser entendida como un objeto. Esta decisión no es menor por las consecuencias que traería para las relaciones jurídicas. Sólo el tiempo dirá lo que la sociedad está dispuesta a aceptar, de momento únicamente tenemos bosquejos de que puede existir en un futura una persona electrónica con quien relacionarnos.
*Abogado. Magister. Licenciado en Comunicación Social. Docente UNLP