logopers
  • INICIO
  • SERVICIOS LEGALES
  • SERVICIOS INFORMATICOS
  • SOBRE ETERNOS
  • CONTACTO
  • Inglés
  • Francés
Suivez nous !
Facebook
Instagram
Linkedin
Twitter
Youtube
RSS Feed
  • Español
  • Français
  • English
Logo a réviser bleu
logopers
  • INICIO
  • SERVICIOS LEGALES
  • SERVICIOS INFORMATICOS
  • SOBRE ETERNOS
  • CONTACTO
  • Inglés
  • Francés
machine learning

Machine learning

Derecho europeo, Derecho mercantil
-
No hay comentarios

El aprendizaje automático es una técnica de programación informática que utiliza la probabilidad estadística para brindar a las computadoras la capacidad de aprender por sí mismas sin programación explícita. Esta herramienta se utiliza en muchos ámbitos de nuestra vida diaria: el sistema de recomendación para plataformas de comercio electrónico, asistentes digitales, software de apoyo a la toma de decisiones, etc. Pero el papel cada vez más importante de las nuevas tecnologías en la sociedad lleva a la pregunta: ¿cómo ¿Tiene en cuenta la ley estas nuevas herramientas?

 

 

technobrain

 

 

“El autor de una obra de la mente disfruta sobre esta obra, por el solo hecho de su creación, de un derecho exclusivo de propiedad intangible y exigible contra todos”

 

El primer problema que surge con el aprendizaje automático es el de la protección del algoritmo. Puede definirse como el estudio de la resolución de problemas mediante la implementación de secuencias de operaciones elementales según un proceso definido que conduzca a una solución. En el sentido de la ley francesa, es una fórmula matemática. Esto está excluido de la ley de patentes, de acuerdo con el artículo L611-10 del Código de propiedad intelectual </ a>.

Sin embargo, es posible considerar la protección bajo el concepto de derecho de autor. Tan pronto como una persona crea una obra, tiene derechos de autor sobre la misma, lo que le otorga derechos específicos. Estos permiten proteger al creador contra la divulgación de su obra, su apropiación o incluso su falsificación. En la legislación francesa, el principio se establece en el artículo L111-1 del Código de propiedad intelectual : “El autor de una obra de la mente disfruta sobre esta obra, por el solo hecho de su creación, de un derecho exclusivo de propiedad intangible y exigible frente a todos. “.

Pero para estar protegido por este concepto, se deben cumplir ciertas condiciones. El primer problema con el concepto de derecho de autor se deriva de su concepción jurisprudencial. Tanto la jurisprudencia francesa como la jurisprudencia europea someten la adquisición de estos derechos a la intervención humana. De hecho, el reconocimiento de los derechos de autor está sujeto a varias condiciones, una de las cuales es la originalidad del trabajo. La jurisprudencia define la originalidad como “la expresión de la personalidad del autor”. Esta jurisprudencia francesa ha sido sustituida por la jurisprudencia europea que se basa en la noción de “creación intelectual específica de su autor”: “ una creación intelectual es específica de su autor cuando refleja su personalidad. </ Em>” – ( TJUE, Painer, 1 de diciembre de 2011, C-145/10, No. 88 ). En vista de esta interpretación, es necesario que el autor individualice su proyecto, por ejemplo, introduciendo comentarios durante el desarrollo.

 

 

 

 

Podríamos considerar pasar por otro mecanismo para proteger estas creaciones, por ejemplo, una aplicación del artículo L113-5 del Intelectual francés Código de Propiedad según el cual “ La obra colectiva es, salvo prueba en contrario, propiedad de la persona física o jurídica a cuyo nombre se divulga. Esta persona tiene los derechos de autor. “. Por lo tanto, sería la persona a cargo del proyecto quien tendría los derechos de autor.

 

En cuanto a la ley irlandesa, enmarca los derechos de autor en el artículo 17 del Copyright y relacionados Ley de derechos de 2000 , que establece que: “( 1) Los derechos de autor son un derecho de propiedad por el cual, sujeto a esta Ley, el propietario de los derechos de autor de una obra puede realizar o autorizar a otras personas en relación con esa obra a realizar ciertos actos en el Estado, siendo actos que son designados por esta Ley como actos restringidos por derechos de autor en una obra de esta descripción.

(2) El derecho de autor subsiste, de conformidad con esta Ley, en— […]

(d) bases de datos originales.

(3)La protección de los derechos de autor no se extiende a las ideas y principios subyacentes a cualquier elemento de una obra, procedimientos, métodos de operación o conceptos matemáticos y, con respecto a las bases de datos originales, no se aplica.no se extiende a su contenido y es sin perjuicio de ningún derecho subsistiendo en tal contenido. “. Por lo tanto, podemos ver que la protección que ofrece la ley irlandesa es bastante limitada: protege la estructura de la base de datos tan pronto como es original (de acuerdo con la ley europea), pero para saber qué está realmente protegido, es necesario para definir qué es una base de datos. El artículo 1 de la Directiva 96/9 / CE define la base de datos como “ una colección de obras, datos u otros elementos independientes, dispuestos de forma sistemática o metódica y accesibles individualmente por medios electrónicos o de otra forma . “. Por ejemplo, las utilizan las aerolíneas para gestionar las reservas o los hospitales para los registros médicos.

 

¿Debería responsabilizarse al propietario que representa al robot o al robot, que solo sería una pantalla legal de la responsabilidad de los propietarios?

 

El segundo problema que surge es el compromiso de responsabilidad. En el caso de que las decisiones de la máquina provoquen daños, ¿quién debe ser considerado responsable?

Según el artículo 1240 del Código Civil francés: “ Cualquier acto del hombre que cause daño a otros obliga a la persona por cuya culpa ha llegado a repararlo “. Esta responsabilidad no se puede aplicar a la máquina porque no puede ser considerada responsable de su propia falla en el sentido de que no es una persona. La legislación belga tiene una concepción similar de la responsabilidad: el artículo 1383 del Código Civil belga establece que “ Toda persona es responsable del daño que haya causado no solo por su acto, sino también por su negligencia o imprudencia ”. Reconocer la personalidad jurídica de los robots conllevaría consecuencias demasiado importantes porque les permitiría ser titulares de derechos y obligaciones por tanto para celebrar actos jurídicos pero parece impensable reconocer a las máquinas como una facultad de comprometer para que estén continuamente representadas y en la misma. De manera que, en el momento en que los robots no tienen intereses propios, no es posible distinguir su interés del del propietario o del usuario, por lo que esto lleva a la pregunta: debería- ¿implica la responsabilidad del propietario que representa al robot o del robot, ¿cuál sería solo una pantalla legal de la responsabilidad de los propietarios?

En definitiva, el único motivo para reconocer esta personalidad sería la compensación del daño causado por el propio robot, pero las dificultades de este reconocimiento son considerables. Nuestro concepto actual de personalidad jurídica se vería fuertemente impactado: la autonomía de decisión se convertiría en un criterio de atribución de personalidad, lo que equivaldría a cuestionar la pérdida de personalidad jurídica de las personas incapaces de manifestar su voluntad. Además, para evaluar el carácter de la falla, nos basaríamos en la calidad del comportamiento razonable: pero ¿cómo definir el comportamiento razonable de un algoritmo?

Observamos que el compromiso de la responsabilidad personal de la máquina, basado en primer lugar en la personalidad jurídica de esta parece totalmente impensable en el derecho francés, es aconsejable considerar otras hipótesis.

 

 

 

 

Control y dirección del comportamiento de la tecnología de aprendizaje automático

 

La segunda responsabilidad contemplada en la ley francesa es la responsabilidad por el acto de las cosas, consagrada en el artículo 1242 del Código Civil: “ Somos responsables no solo del daño que causamos por nuestro propio acto, sino también del causado por los actos de personas de las que somos responsables, o cosas que tenemos a nuestro cuidado . “. Esta responsabilidad se basa en el concepto de “custodia”: quien tiene la custodia de una cosa es responsable del daño que ocasiona. Para muchos autores, es la responsabilidad más adecuada para las nuevas tecnologías, pero la noción de custodia plantea un problema: ¿podemos considerar que el propietario de la tecnología de aprendizaje automático tiene la custodia cuando su poder de dirección está limitado por algoritmos de automatización? Inicialmente, la ley francesa distingue entre la custodia legal que es la propiedad yla custodia material que es el poder de dirección y control de la cosa en el momento del daño. Ahora bien, el aprendizaje automático está en contradicción con esta noción porque se basa en la idea de una autonomía de la cosa y de un control limitado por parte del creador, en consecuencia, de una ausencia de una persona responsable de la custodia física. Para sortear esta irresponsabilidad, algunos autores vuelven a la distinción entre custodiar la estructura y custodiar el comportamiento. El guardián del comportamiento es quien sostiene la cosa para llevar a cabo su misión y el guardián de la estructura es el dueño de la cosa ( Tribunal de Casación, Sala Civil 2, de 5 de enero de 1956, 56-02.126 56-02.138 ). La protección de la estructura podría considerarse responsabilidad del fabricante o del propietario, según la situación. La custodia de la conducta implicaría la responsabilidad de la parte cuyo mal uso provocó el daño, ya sea el propietario o el usuario. Para definir quién tiene la custodia del comportamiento será necesario definir quién tiene los poderes de uso, control y dirección del comportamiento de la tecnología de aprendizaje automático .

Finalmente, cabe señalar que si no se pudiera determinar la causa exacta del daño, se aplica una presunción de atribución del daño a la estructura de la cosa. Dado que el Tribunal de Casación se niega a compartir la responsabilidad, se aplica un principio de custodia alternativa. Sin embargo, no sería imposible prever la responsabilidad solidaria a través del modelo de custodia colectiva. Sin embargo, esta solución es peligrosa porque está vinculada a una limitación de las posibilidades de compensar a las víctimas del propietario / usuario en relación con los daños causados ​​por objetos desconectados.

La última categoría posible es la responsabilidad por productos defectuosos. Fue establecido por la directiva de 25 de julio de 1985 , la legislación Por tanto, está armonizado entre todos los estados miembros de la Unión Europea. En la legislación francesa, está previsto en el artículo 1245 del Código Civil francés : “ Le El productor es responsable de los daños causados ​​por un defecto en su producto, esté o no vinculado por un contrato con la víctima . “. El primer problema que surge es el de la calificación del producto. De hecho, el algoritmo no es un producto en el sentido de la directiva de 25 de julio , 1985 . Sin embargo, podemos considerar la aplicación de este régimen al resto de componentes de hardware de la máquina. El segundo problema a tener en cuenta es la definición de la persona de la que seremos responsables, porque en general, una multitud de actores participan en la creación de tecnología. La pregunta final es la del producto defectuoso, lo que significa que “ no brinda la seguridad que uno podría esperar legítimamente. “. El defecto podría ser entonces el del programa de la máquina, de su aprendizaje, cuando su uso conduce a la realización de un daño. La detección del defecto sería, por tanto, una forma de reconocer a los responsables. Sin embargo, cuando se trata de tecnología de aprendizaje automático, establecer el vínculo entre daño y defecto de la máquina parece complejo porque podría ser aplicar este régimen a bienes intangibles.

 

 

gráfico

 

 

Inteligencia artificial porque los humanos que crean los sistemas están sujetos a sesgos cognitivos

 

Vemos que hoy en día ningún régimen está totalmente adaptado al machine learning y aunque se podrían utilizar para tener en cuenta el daño que provocan nuestros avances tecnológicos, la adaptación sería necesaria.

Además, hoy en día se están desarrollando nuevas tecnologías y es necesario tenerlas en cuenta. El legislador europeo abordó el tema de la inteligencia artificial en 2017. En una Resolución de 16 Febrero de 2017 , los eurodiputados propusieron “la creación, a largo plazo, de una personalidad jurídica propia de los robots, de modo que al menos los robots autónomos más sofisticados puedan ser considerados como personas electrónicas responsables, necesarias para reparar cualquier daño causado a un tercero; sería posible conferir personalidad electrónica a todost robot que toma decisiones autónomas o que interactúa de forma independiente con terceros; ”. Pero esta propuesta no fue aceptada y en una resolución de 20 de enero de 2021 </ a> sobre inteligencia artificial, el Parlamento Europeo reafirmó el mantenimiento de la responsabilidad humana y “ subraya que los sistemas basados ​​en la IA deben permitir que los seres humanos responsables de ella ejerzan un control real, asuman plena y total responsabilidad con respecto a estos sistemas y para responder por todos sus usos ”. La Unión Europea ha optado por un plan basado en el riesgo que presenta la tecnología en cuestión con cuatro categorías: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. ¿No sería limitante esta concepción? De hecho, evitaría el pronunciamiento de prohibiciones en áreas que no caen bajo un riesgo inaceptable, por ejemplo, la vigilancia policial predictiva que podría usar inteligencia artificial para la categorización biométrica étnica constituye una violación de los derechos humanos pero no está categorizada como “riesgo inaceptable” por el plan de la Unión Europea.

El desafío de esta nueva regulación será tomar en cuenta el tema de la conciencia dentro de las máquinas y los límites éticos que a menudo enfrenta la inteligencia artificial porque los humanos que crean los sistemas están sujetos a sesgos cognitivos, que ‘será necesario para poder minimizar gracias a la legislación.

Parece que en la actualidad, la legislación europea avanza hacia una responsabilidad del responsable de la inteligencia artificial y no de la inteligencia artificial en sí, sin tener en cuenta el grado de autonomía e independencia de la misma. El responsable será el que preste el servicio y no los desarrolladores, aunque se les exige que pasen por un proceso de adecuación del producto antes de comercializarlo.

 

A medida que la legislación europea comienza a tener en cuenta los excesos de la inteligencia artificial, otras regiones del mundo se han visto enfrentadas a los excesos de las nuevas tecnologías. En 2020, un tribunal del este de China dictó su decisión sobre el primer caso judicial </ a > que implica el uso de reconocimiento facial en China, que consiste en un mecanismo de aprendizaje automático . Esto implicó establecer la seguridad de los datos recopilados por un organismo privado, el motivo de su recopilación en relación con su estructura, así como la ley que podría justificar el cambio en el modo de recopilación (cambio de huella dactilar a reconocimiento facial). El demandante ganó su caso por incumplimiento de contrato y no por instrumentos legales que regulan la inteligencia artificial, pero este caso ilustra lo importante que es en la sociedad actual y nos lleva a cuestionarnos sobre cómo proteger nuestros datos y nuestra privacidad ante estas nuevas tecnologías.

 

 

techncourt

 

 

Pero luego, cuando veamos que las nuevas tecnologías juegan un papel cada vez más importante, dando lugar a litigios, los propios tribunales tendrán que utilizar las nuevas tecnologías y el aprendizaje automático . Surge la idea de justicia preventiva, que consiste en predecir con la mayor certeza posible cuál será la decisión de un tribunal en tal situación. Ya se usa en China por la falta de abogados: en algunas provincias las máquinas ofrecen decisiones a los jueces para compensar su falta de imparcialidad

El riesgo de esta forma de justicia es la homogeneización de las decisiones de los tribunales: ¿los jueces tendrán miedo de emitir una decisión diferente a la de la inteligencia artificial? Sin embargo, esta idea debe mitigarse porque el juez sigue siendo plenamente responsable de las decisiones tomadas. Pero debemos lograr combinar esta forma de justicia con los principios fundamentales del derecho de la defensa: la igualdad de armas, el principio de individualización de la sentencia. Por lo tanto, la justicia deberá establecer garantías para proteger a los litigantes contra los abusos de su propio sistema. La justicia predictiva puede ser un medio para orientar a los profesionales, pero no puede sustituir sus habilidades.

0 0 votes
Article Rating
Twittear
Compartir
WhatsApp
Telegram
Compartir
Compartir
Email
Print
0 Compartir
Tags
inteligencia artificial
tecnología
PREVIOUS POST
Precio de transferencia
NEXT POST
Servicios OTT bajo la condición de provedores de comunicaciones electrónicas

Fabregue

Mr. Fabregue was Eternos Corporation Head of Legal up until 2020, where he headed the legal department.

Besoin de conseils en lien avec ce sujet ?

Faites appel à nos experts !

   
PREMIER RDV GRATUIT 
   
Contactez-nous
       
   

Que pensez-vous de cette analyse ?

Réagissez !

Contact
Subscribe
Login
Notify of
guest
guest
0 Comments
Inline Feedbacks
View all comments

También le gustará...

Servicios y artículos relacionados que pueden ser de su interés.
amazon

Irresponsabilidad de los marketplaces

Derecho europeo, Derecho fiscal
El 2 de abril de 2020, el Tribunal de Justicia de las Comunidades Europeas dictó sentencia </ a > en el que considera que una empresa no infringe…
READ MORE →
10 Min Read
DSA

Propuesta de regulación de servicios digitales

Derecho digital, Derecho europeo
Si bien el objetivo inicial de la Unión Europea es crear un mercado único europeo, Europa quería impulsar aún más su lógica de mercado abordando el mundo digital.…
READ MORE →
9 Min Read
puzzle

Responsabilidad penal en caso de fusión-absorción

Derecho europeo
La fusión-absorción consiste para una o más sociedades, denominadas “sociedades absorbidas”, en traspasar todos sus activos a otra, la “sociedad absorbente”. Esto implica un aumento de capital por…
READ MORE →
12 Min Read
Nos analyses les plus consultées :
  • pass sanitaire
    11/12/2021
    Pase Sanitario
  • graph
    11/12/2021
    RSE: el tema de la responsabilidad social empresarial
  • trademark
    11/12/2021
    Reforma de la ley de marcas en la Unión Europea
Suivez-nous
© Eternos Corporation LTD. 2018-2021
Developed with love in Ireland        |      Legal Notice & Privacy Policy      |      Cookie Policy
Machine learning ⋆ Eternos Corporation
wpDiscuz
0
0
Would love your thoughts, please comment.x
()
x
| Reply
Comment Author Info
Manage Cookie Consent
We use cookies to optimize our website and our service.
Functional cookies Siempre activo
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistics
The technical storage or access that is used exclusively for statistical purposes. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.
Administrar opciones Gestionar los servicios Gestionar proveedores Leer más sobre estos propósitos
View preferences
{title} {title} {title}
:wpds_smile::wpds_grin::wpds_wink::wpds_mrgreen::wpds_neutral::wpds_twisted::wpds_arrow::wpds_shock::wpds_unamused::wpds_cool::wpds_evil::wpds_oops::wpds_razz::wpds_roll::wpds_cry::wpds_eek::wpds_lol::wpds_mad::wpds_sad::wpds_exclamation::wpds_question::wpds_idea::wpds_hmm::wpds_beg::wpds_whew::wpds_chuckle::wpds_silly::wpds_envy::wpds_shutmouth:
You are going to send email to

Move Comment
Translate into
AfrikaansAlbanianArabicArmenianAzerbaijanBasqueBelarusianBosnianBulgarianCatalanChineseCroatianCzechDanishDutchEnglishEstonianFinishFrenchGalicianGeorgianGermanGreekHaitian(Creole)HungarianIcelandicIndonesianIrishItalianJapaneseKazakhKoreanKyrgyzLatinLatvianLithuanianMacedonianMalagasyMalayMalteseMongolianNorwegianPersianPolishPortugueseRomanianRussianSerbianSlovakianSlovenianSpanishSwahiliSwedishTagalogTajikTatarThaiTurkishUkrainianUzbekVietnameseWelshYiddish