Feedback

Actualidad

 10 FEB 2017

LA INTELIGENCIA ARTIFICIAL EN EL SECTOR LEGAL

Lo que persigue la inteligencia artificial (IA) es la combinación entre esa respuesta segura del programa de ordenador con la lógica humana

Un programa de ordenador es fiable, eficiente, no dependerá de circunstancias externas, de estados de ánimo, ni de intereses. Por lo tanto, cualquier output que nos proporcione, vamos a poder considerar que es un output “seguro”.

Lo que persigue la inteligencia artificial (IA) es la combinación entre esa respuesta segura del programa de ordenador, con la lógica humana y la capacidad de extraer conclusiones.

Las capacidades humanas que se intentan imitar en la IA son la lógica, la búsqueda de soluciones y el aprendizaje. Es decir, que todas ellas sean realizadas por un software, con los niveles de fiabilidad y eficiencia inherentes.

Este tipo de programas, funcionan muy bien para campos en los que existen una serie de reglas marcadas previamente, en los que hay unas acciones permitidas y otras prohibidas, en relación con una materia o rama de conocimiento a tratar. Como por ejemplo, la abogacía. Para materias específicas se conocen como Sistemas Expertos (SE).

Para la abogacía, supondría la creación de un “abogado virtual” que sea capaz de contener información jurídica (leyes, jurisprudencia, doctrina), para que a partir de esta información, pueda extraer conclusiones lógicas (esto incluye probabilidades de éxito y respuestas basadas en la legislación vigente). Por último, se explora también la complicada posibilidad de aprendizaje, en base al uso y tereas realizadas.

Últimamente, en el ámbito de la abogacía se plantea el “debate hombre- máquina” a tres niveles: técnico, deontológico y legal, valorando las

implicaciones de la implantación de sistemas de IA, en concreto de SE, que sean capaces de resolver dudas y problemas sobre un campo en concreto, en este caso, el de la abogacía.

En relación con las implicaciones técnicas, surgen cuestiones como la fiabilidad de los resultados o si habría que hacer siempre caso a los mismos, la falta de consideración en el sistema de ciertas variables que pueden ser de gran relevancia (las inclinaciones y gustos del cliente, su aversión al riesgo, entidad probatoria de testigos o declaraciones, una tercera solución no contemplada, etc.). Igualmente relevante en el campo técnico es la posibilidad de que el sistema de aprendizaje se pervierta, puesto que este sistema de aprendizaje va a depender de las personas que lo utilicen. Si estas personas comenten errores (intencionados o no), el sistema experto va a internalizarlo también y esto tendrá relevancia en cuanto a los resultados.

Con respecto a las implicaciones deontológicas, los dilemas que se plantean son relativos a si es ético dejar el trabajo a un programa de ordenador. Si podría darse la posibilidad de que el sistema sea sesgado y no contenga ciertas connotaciones o posiciones, de forma que las respuestas estén en cierto modo “dirigidas”. Si el uso masivo de este tipo de programas, supondría una bajada generalizada de los puestos de trabajo en el sector legal.

Como implicaciones legales o jurídicas, de quién sería la responsabilidad en caso de fallo del SE, si se le puede algún modo de dotar de responsabilidad, si en todo caso y en última instancia si sería responsable el abogado que lo maneje o si tendría alguna implicación la empresa de desarrollo del programa de inteligencia artificial.

Sin duda el debate está abierto, lo cual es síntoma, por una parte del desarrollo tecnológico, y por otra, de que la abogacía es un sector atrayente para la investigación e implantación de éste tipo de sistemas.

Este post es la continuación de Abogacía y Tics.
María G. Lario, Esto es Legal

.@saffepayments @situm_es @delsuperes @iNovarCorp @preseries @odilo @VisualTagging en #4YFN17… https://t.co/l7SBys6jsH
Youtube
Linkedin