Cuando la IA decide por ti y falla, ¿quién se hace responsable? El vacío legal en México
Por Osvaldo Hernández Olivera
Abogado en Derecho Informático | Opinión Legal sobre Tecnología y Futuro.
El problema es que si se equivoca, México no tiene ley para obligar a nadie a responder: un algoritmo le niega el crédito para su casa, una plataforma lo suspende sin explicación y sin un número de teléfono donde reclamar, un sistema automatizado señala su nombre como riesgo sin que ninguna persona haya revisado su caso . Todo eso pasa hoy en México. Y si usted busca a quién reclamarle, el Código Civil Federal —escrito cuando la tecnología más peligrosa era la caldera de vapor— no tiene respuesta.
La pregunta que nadie diseñó para responder.
Instituciones financieras aplican inteligencia artificial para aprobar o negar créditos; el IMSS y el ISSSTE han probado diagnósticos asistidos por algoritmos. Cientos de aplicaciones gestionan suspensiones y despidos sin que ningún ser humano tome la decisión de forma explícita. Cuando el sistema falla —cuando discrimina, cuando daña— la víctima mexicana enfrenta siempre la misma pared: ¿a quién demando? No es pregunta retórica: es el hueco legal más urgente del país en materia digital.
Un código del siglo pasado en el mundo de hoy.
El artículo 1910 del Código Civil Federal obliga a reparar el daño causado por culpa o negligencia; el 1913 añade la responsabilidad objetiva: si usted opera algo peligroso y eso daña a alguien, responde aunque no haya actuado con malicia. Ambos artículos se redactaron en el siglo pasado, cuando el legislador pensaba en fábricas y automóviles, no en modelos que aprenden solos y deciden en milisegundos. La cadena causal que el derecho conoce —hecho, culpa, nexo, daño— se rompe cuando el responsable no es una persona, sino un modelo que nadie programó para tomar esa decisión específica. ¿Quién responde? ¿El que diseñó el algoritmo? ¿El que lo vendió? ¿El que lo usó sin revisarlo? El CCF no lo dice. Y ese silencio beneficia siempre al más poderoso de la cadena.
El escudo que tiene agujeros.
La teoría jurídica más optimista dice que el artículo 1913 podría usarse: quien despliega una IA de alto impacto crea un riesgo que la víctima no debe absorber. Tiene sentido, pero en la práctica choca con tres problemas que los libros todavía no resuelven:
Primero: no hay un responsable claro. En el ecosistema real de la inteligencia artificial —desarrollador, distribuidor, integrador, usuario— cada actor señala al siguiente. La responsabilidad se diluye justo donde más se necesita.
Segundo: los modelos de IA son cajas negras; ni sus propios creadores pueden explicar siempre por qué produjeron un resultado específico. Probar la causa del daño ante un juez es, para un ciudadano común, prácticamente imposible.
Tercero : los tribunales mexicanos son conservadores en materia de responsabilidad objetiva y piden prueba de culpa incluso donde la ley no lo requiere.
Resultado : hoy, quien sufre un daño por inteligencia artificial en México tiene menos recursos legales que la víctima de un accidente de tranvía en 1935.
Lo que México necesita y no es un milagro.
Europa construyó una respuesta en dos tiempos. El AI Act clasifica los sistemas de IA por nivel de riesgo y exige auditorías y supervisión humana para los más peligrosos. Una directiva paralela invierte la carga de la prueba: si la víctima no puede acceder a los parámetros técnicos del modelo que la dañó —y casi nunca puede—, es el operador quien debe demostrar su inocencia, no la víctima quien debe probar el daño. No se trata de copiar a Europa: se trata de incorporar dos principios básicos que cualquier sistema jurídico serio debería tener: que la opacidad técnica no puede favorecer a quien la genera y que desplegar una tecnología de alto impacto implica asumir responsabilidad por sus consecuencias. Para eso no hace falta crear un nuevo código ni un organismo regulador de décadas de diseño: bastan tres reformas al CCF: que la causalidad se presuma cuando la víctima no pueda acceder al modelo; que tanto el desarrollador como el que lo despliega respondan solidariamente; y que en materia de salud, justicia, crédito y empleo sea obligatorio contar con fondos de garantía o seguros de responsabilidad.
El argumento que siempre aparece.
Alguien dirá que regular así frena la innovación; lo dirán con convicción pero México no construye modelos de inteligencia artificial: los importa y los usa. La ausencia de regulación no nos hace más innovadores, nos deja más expuestos. Y vuelve impunes a quienes traen tecnología diseñada en Silicon Valley o en Shanghái y la despliegan aquí sin adaptarla ni responder por ella. En México, un algoritmo ya puede arruinarle la vida, lo que todavía no puede hacer es ir a la cárcel. Y mientras eso no cambie, el daño digital seguirá siendo el delito perfecto: sin culpable, sin condena, sin reparación .












