RT Article T1 Sobre la responsabilidad penal por la utilización de sistemas inteligentes JF Revista electrónica de ciencia penal y criminología VO 24 SP 1 OP 35 A1 Valls Prieto, Javier 1970- LA Spanish YR 2022 UL https://krimdok.uni-tuebingen.de/Record/1918570981 AB En el ámbito penal ha habido varios intentos de determinar la responsabilidad que puede surgir por el uso de sistemas inteligentes. Las soluciones aportadas por la doctrina son buenas desde un punto de vista jurídico-técnico, sin embargo, su aplicación práctica dentro de la realidad de la inteligencia artificial puede presentar problemas, dejando la determinación de la responsabilidad penal en zonas grises que diluya la responsabilidad. Con el fin de solucionar este problema se propone una definición de inteligencia artificial que sirva para el mundo jurídico, con el objetivo de permitir entender las características de los sistemas inteligentes de tal manera que clarifique en qué fase de la vida del sistema inteligente se encuentran las esferas de responsabilidad en cada uno de los tres sujetos que interviene. Una vez determinada una definición se delimita el marco de principios que deben regir el desarrollo y uso de la inteligencia artificial con el fin de delimitar el contenido de las normas de debido cumplimiento aceptadas por los expertos. Al mismo tiempo, estos principios éticos nos van a suministrar herramientas para determinar los criterios para determinar la responsabilidad penal, como el control humano, la transparencia o la rendición de cuentas. Por último, estos principios nos van a servir de guía para determinar qué derechos fundamentales se encuentran en riesgo y qué bienes jurídicos son los que se van a ver lesionados. A partir de este estudio, el artículo ofrece una metodología de análisis de la responsabilidad que complete las aportaciones doctrinales ya existentes, facilitando a los operadores jurídicos determinar la responsabilidad por la creación, su uso profesional y su utilización por los usuarios finales de los sistemas inteligentes de forma que ofrezca seguridad jurídica a la industria y respete los derechos de los ciudadanos. AB Within the criminal field there have been several attempts to determine the different possibilities of liability that may arise from the use of intelligent systems. The solutions provided by the doctrine are very good legal-technical, however, their practical application in the reality of artificial intelligence may present problems, leaving the determination of liability in gray areas that dilute liability. To solve this problem, we are going to determine a definition of artificial intelligence that is useful for the legal world, with the aim of allowing us to understand the characteristics of intelligent systems in such a way that clarifies where the spheres of responsibility lie. Once a definition has been determined, we will limit the framework of principles that should govern the development and use of artificial intelligence to delimit the content of the rules to be complied with and accepted by professionals. At the same time, ethical principles will give us tools to determine the criteria that must be present when determining criminal liability, such as human control, transparency, or accountability. Finally, these principles will serve as a guide to determine which fundamental rights are at risk and to be able to determine which legal assets will be harmed. This article aims, based on this study, to offer a methodology for liability analysis that complements existing doctrinal contributions, making it easier for legal operators to determine liability for the creation, professional use and use by end users of intelligent systems in a way that offers legal certainty to the industry and respects the rights of citizens. K1 Responsabilidad penal K1 Inteligencia artificial K1 principios éticos K1 Compliance K1 Derechos fundamentales K1 Criminal Liability K1 Artificial Intelligence K1 Ethical principles K1 Fundamental Rights