Autor/Autores: Alfonso Ortega Giménez
ISBN v. impressa: 978989931504-4
ISBN v. digital: 978652631955-0
Encuadernación: Tapa blanda
Número de páginas: 176
Publicado el: 28/01/2026
Idioma: Español
Para leer en la aplicación exclusiva de Juruá Editora - Juruá eBooks - para Smartphones y Tablets con iOS y Android. No compatible con KINDLE, LEV, KOBO y otros lectores electrónicos.
Disponible para las plataformas:
No compatible para lectura en computadoras;
No permite la descarga del libro en formato PDF;
No permite imprimir y copiar contenido.
Compra apenas por el sitio de Juruá Editorial.
Responsabilidad civil extracontractual, IA y CJI examina cómo la inteligencia artificial ha transformado profundamente los fundamentos clásicos del Derecho de daños. Se parte de la idea de que la autonomia y capacidad de aprendizaje de los sistemas de IA dificultan identificar al responsable cuando se producen perjuicios, ya que las decisiones ya no dependen exclusivamente de las personas, sino también de algoritmos que operan de forma independiente. Analiza cómo estos sistemas pueden generar daños materiales — como pérdidas económicas por errores en sistemas médicos, financieros o industriales —, Morales — por vulneraciones de la intimidad, la dignidad o la reputación — y colectivos, que afectan a grupos amplios de personas a través de sesgos estructurales o tratamientos masivos de datos.
El texto subraya la importancia de crear un marco normativo que garantice la protección efectiva de los derechos fundamentales sin frenar la innovación tecnológica. La transparencia, la trazabilidad y la supervisión humana se presentan como pilares esenciales de uma inteligencia artificial confiable y ética. Se señala que la regulación debe anticipar los riesgos, imponiendo obligaciones de prevención y reparación a todos los actores implicados: desarrolladores, fabricantes, operadores y usuarios.
Asimismo, aborda los problemas que plantea la opacidad algorítmica para probar la existencia de un daño o establecer el nexo causal entre la conducta y el resultado lesivo. Destaca ejemplos de discriminación em procesos automatizados de selección laboral, errores médicos derivados de diagnósticos algorítmicos o la creación de contenidos falsos mediante IA generativa. Finalmente, se de_ ende el papel de Europa como referente mundial en la regulación de estas tecnologías, impulsando un modelo de confianza, seguridad y respeto a la persona. La inteligencia artificial, concluye, debe ser un instrumento al servicio del bienestar humano y no una fuente de desprotección o desigualdad.
ALFONSO ORTEGA GIMÉNEZ
Licenciado en Derecho, Doctor en Derecho y Master en Comercio Internacional por la Universidad de Alicante. Profesor Titular de Derecho internacional privado en la Universidad Miguel Hernández de Elche (UMH). Recientemente acreditado a Catedrático de Universidad (22/9/2025). Doctor Honoris Causa por la Universidad de San Lorenzo (UNISAL), Universidad Autónoma San Sebastián de San Lorenzo - USAS (Paraguay) y por el Instituto Interamericano de Investigación y Docencia en Derechos Humanos (México). Magistrado Suplente de la Audiencia Provincial de Castellón (España). Director del Observatorio Provincial de la Inmigración de Alicante (España). Vicedecano del Grado en Derecho de la UMH. Director del Máster Universitario en Abogacía y Procura de la UMH. Socio-Director de COEX International Trade, Spin-O_ de la Universidad Miguel Hernández de Elche, que se dedica al Asesoramiento, Consultoría y Formación en Internacionalización de la Empresa y Planificación Jurídica Internacional. Tiene reconocidos por la CNEAI tres Sexenios de Investigación. Ponente habitual em numerosos cursos organizados en España y en el extranjero; y ha participado, como autor, coautor, director y/o coordinador em más de 265 publicaciones (entre libros de investigación, de docencia, de divulgación y/o de transferencia de conocimiento).
CONSIDERACIONES PREVIAS, p. 9
I DAÑOS DERIVADOS DE UN USO INADECUADO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL, p. 23
1 INTRODUCCIÓN, p. 23
1.1 Distinción entre Daño Material, Moral y Daños Colectivos, p. 23
1.2 Relevancia del Concepto de Daño en el Derecho de Responsabilidad Civil Extracontractual, p. 32
1.3 Marco Jurídico General: Derecho Civil, Derecho Internacional Privado y Regulación Sectorial (IA, Protección de Datos, Consumo), p. 32
2 TIPOLOGÍAS DE DAÑOS DERIVADOS DE SISTEMAS DE IA, p. 34
2.1 Daños a La Persona, p. 34
2.2 Daños Patrimoniales, p. 36
2.3 Daños Morales o Reputacionales, p. 38
2.4 Daños a Derechos Fundamentales, p. 39
2.5 Daños Medioambientales, p. 40
3 CRITERIOS JURÍDICOS PARA LA ATRIBUCIÓN DE RESPONSABILIDAD POR DAÑOS, p. 40
3.1 Elementos Clásicos de la Responsabilidad Extracontractual, p. 42
3.2 Dificultades para la Imputación en Sistemas Autónomos, p. 47
3.3 Modelos Emergentes: Responsabilidad Objetiva, Compartida o Vicaria, p. 48
4 EJEMPLOS REALES Y JURISPRUDENCIA RELEVANTE, p. 52
4.1 El Caso "COMPAS" en EE. UU.: Discriminación Algorítmica en el Sistema Judicial, p. 52
4.2 Fallos en Sistemas de Reconocimiento Facial: Casos Policiales Erróneos, p. 53
4.3 Sentencias Europeas sobre Tratamiento Ilícito de Datos Personales (STJUE y RGPD), p. 54
5 MARCO JURÍDICO APLICABLE A NIVEL EUROPEO, p. 55
5.1 Reglamento General de Protección de Datos (RGPD), p. 56
5.2 Reglamento Europeo de Inteligencia Artificial, p. 57
5.3 Otras Normas Relevantes, p. 59
6 PROPUESTAS DOCTRINALES Y MODELOS COMPARADOS, p. 60
6.1 Enfoques en EE. UU, p. 60
6.2 China y la IA Ética Bajo Supervisión Estatal, p. 62
6.3 Propuestas Doctrinales en Europa, p. 62
7 HACIA UN NUEVO PARADIGMA DE RESPONSABILIDAD CIVIL, p. 64
7.1 Riesgo Tecnológico y Principio de Precaución, p. 64
7.2 Necesidad de Estándares de Diligencia Tecnológica, p. 65
7.3 IA Explicable, Auditable y Bajo Control Humano, p. 66
8 CONCLUSIÓN, p. 67
II MARCO JURÍDICO EN MATERIA DE TRATAMIENTO ILÍCITO INTERNACIONAL DE DATOS PERSONALES DERIVADO DE UN USO INADECUADO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL. ESPECIAL CONSIDERACIÓN A LA APLICACIÓN EXTRATERRITORIAL DEL REGLAMENTO EUROPEO DE INTELIGENCIA ARTIFICIAL, p. 71
1 PLANTEAMIENTO GENERAL DEL REGLAMENTO EUROPEO DE IA Y SU CONTEXTO NORMATIVO, p. 71
2 ÁMBITO DE APLICACIÓN DEL REGLAMENTO EUROPEO DE IA: ANÁLISIS DEL ARTÍCULO 2, p. 76
2.1 Evolución, Tramitación y Contenido del Artículo 2.1 del RIA, p. 76
2.1.1 Aplicación del artículo 2.1 por los operadores económicos, p. 77
2.1.1.1 Cumplimiento proactivo, p. 78
2.1.1.2 Evaluaciones de impacto de la Inteligencia Artificial y diseño por privacidad, p. 79
2.1.1.3 Enfoque basado en riesgos, p. 79
2.1.1.4 Principios de ética en Inteligencia Artificial, p. 80
2.1.2 Aplicación del artículo 2.1 por las autoridades nacionales competentes, p. 81
2.1.2.1 Necesidad de cooperación internacional, p. 81
2.1.2.2 Armonización de estándares regulatorios, p. 82
2.1.2.3 Interacción con el Derecho internacional, p. 83
2.1.2.4 Aplicación del artículo 2.1 por los Tribunales de Justicia, p. 84
2.2 La Aplicación Extraterritorial del Reglamento Europeo: Criterios de Conexión y Desafíos, p. 86
2.3 Análisis Detallado de la Aplicación Extraterritorial del Reglamento Europeo de Inteligencia Artificial (RIA), p. 90
2.3.1 El Artículo 2.1 del RIA: Desglose de los Criterios de Conexión y su Alcance Práctico, p. 91
2.3.2 La Figura del Representante Autorizado para Entidades no Establecidas en la UE, p. 93
2.3.3 Implicaciones Prácticas de la Extraterritorialidad para la Determinación de la Competencia Judicial Internacional, p. 94
2.3.4 Desafíos para el Reconocimiento y la Ejecución de Sentencias Basadas en la Aplicación Extraterritorial del RIA, p. 95
2.3.5 Caso Práctico sobre Aplicación Extraterritorial del RIA y Competencia Judicial, p. 96
2.4 El "Efecto Bruselas" del RIA y su Impacto en la Gobernanza Global de la IA, p. 97
2.4.1 El "Efecto Bruselas" del RIA y la Crítica Doctrinal: Alcance y Limitaciones, p. 100
III RESOLUCIÓN JUDICIAL INTERNACIONAL DE CONTROVERSIAS, TRATAMIENTO ILÍCITO INTERNACIONAL DE DATOS PERSONALES DERIVADO DE UN USO INADECUADO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL, REGLAMENTO GENERAL DE PROTECCIÓN DE DATOS DE LA UNIÓN EUROPEA Y REGLAMENTO EUROPEO DE INTELIGENCIA ARTIFICIAL, p. 103
IV RESOLUCIÓN JUDICIAL INTERNACIONAL DE CONTROVERSIAS, TRATAMIENTO ILÍCITO INTERNACIONAL DE DATOS PERSONALES DERIVADO DE UN USO INADECUADO DE SISTEMAS DE INTELIGENCIA ARTIFICIAL Y REGLAMENTO «BRUSELAS I BIS», p. 129
V REFLEXIONES FINALES, p. 149
VI PERSPECTIVAS DE FUTURO: DESAFÍOS ADICIONALES, EL DEBATE SOBRE LA LEY APLICABLE (REGLAMENTO "ROMA II") Y PERSPECTIVAS DE FUTURO, p. 157
BIBLIOGRAFÍA CONSULTADA, p. 161
NOTA SOBRE EL AUTOR, p. 165