Las causales de justificación en supuestos donde interviene la inteligencia artificial (IA)
DOI:
https://doi.org/10.70198/revistajuridica.vol1.N1.2025.559Keywords:
inteligencia artificial (ia), causales de justificación, responsabilidad civil, antijuridicidad, agentes autónomos, modelo coevolutivo, derecho humanizadoAbstract
Este artículo aborda la tensión emergente entre las causales de justificación de la responsabilidad civil y la intervención de la Inteligencia Artificial (IA) en la toma de decisiones autónomas. Las causales de justificación son aquellas circunstancias que excluyen la antijuridicidad del daño —concebidas en el sistema argentino como un catálogo abierto— y han sido históricamente diseñadas para resolver conflictos entre personas. Los agentes autónomos (vehículos, drones, robots) tomarían decisiones que antes eran exclusivas del ser humano, planteando dilemas éticos y jurídicos no previstos en la aplicación de figuras como el estado de necesidad y la legítima defensa. El conflicto se manifiesta cuando la decisión algorítmica (por ejemplo: el "mal menor" en un vehículo autónomo) confronta los principios humanistas y la inviolabilidad de la persona. Frente a la asimetría de la "cuarta revolución industrial" y la velocidad de la IA, se concluye en la necesidad de un marco legal coevolutivo que se desarrolle conjuntamente con la tecnología. Como premisa rectora, se propone que la justificación invocada por un sistema autónomo debe someterse a un test de estándar humano: si la acción u omisión de la máquina no coincide con la que se exigiría a una persona, debe rechazarse la justificación. La simple invocación de la programación o del algoritmo no será un argumento atendible para justificar el alejamiento del criterio humano, quedando la acción como antijurídica y el dueño o guardián obligado a responder.
