Introducción
En la era digital, el uso creciente de algoritmos e inteligencia artificial (IA) en el mercado de consumo está transformando radicalmente las relaciones entre empresas y consumidores. Herramientas algorítmicas permiten la fijación dinámica de precios, la personalización de la publicidad, la segmentación de ofertas y la automatización de decisiones comerciales, con la promesa de mayor eficiencia. Sin embargo, estos sistemas, si operan sin transparencia ni control, pueden generar graves desequilibrios e injusticias. Lejos de ser neutrales, muchos algoritmos discriminan, toman decisiones injustas o incluso vulneran derechos fundamentales de los ciudadanos, todo ello sin que sepamos exactamente cómo lo hacen debido a la ausencia de supervisión externa. En definitiva, la creciente dependencia del factor algorítmico en el ámbito del consumo plantea nuevos riesgos para la equidad, la información y la seguridad jurídica en las transacciones, que el ordenamiento jurídico debe abordar con prontitud.
Se ha instalado en la doctrina y en la sociedad civil la convicción de que es necesaria una mayor transparencia algorítmica como principio general del derecho de consumo.
Ante esta realidad, se ha instalado en la doctrina y en la sociedad civil la convicción de que es necesaria una mayor transparencia algorítmica como principio general del derecho de consumo. A nivel internacional, comienzan a ensayarse soluciones regulatorias innovadoras para asegurar que las decisiones automatizadas que afectan a los consumidores puedan ser fiscalizadas y se adopten con lealtad y respeto a sus derechos. En este contexto, el presente artículo analiza la conveniencia de crear un Registro Estatal de Algoritmos en España como instrumento eficaz de protección de los consumidores. Se propone un enfoque multidisciplinar, abarcando las perspectivas constitucional, civil, administrativa, europea y de derecho comparado, con el nexo común de la transparencia algorítmica y la tutela de los consumidores. Se plantea una propuesta normativa de lege ferenda para implementar dicho registro en el ordenamiento español.
Los algoritmos en las relaciones de consumo: riesgos y desafíos
La digitalización ha multiplicado el uso de algoritmos para optimizar las transacciones comerciales, pero ello conlleva nuevos riesgos para los consumidores. Un área especialmente problemática es la política de precios dinámicos aplicada en entornos digitales. Cada vez es más frecuente que el precio de un producto o servicio en línea varíe en tiempo real en función de múltiples parámetros (disponibilidad, hora, perfil del usuario, competencia, etc.). Si bien la variación de precios según oferta y demanda no es nueva, la novedad radica en que ahora son algoritmos los que realizan esos análisis de manera veloz y opaca, incorporando incluso datos personales o de comportamiento del consumidor. Esto deja al usuario en situación de indefensión al desconocer si el precio mostrado está personalizado, qué datos suyos se han utilizado para ello y por qué fluctúa constantemente, impidiendo comparar ofertas de forma efectiva. Se han documentado casos en que esta falta de transparencia permite incrementos significativos de precios. Así, la plataforma Ticketmaster —una de las pocas que reconocen abiertamente usar precios dinámicos— registró un aumento medio del 37% en el precio de sus entradas en un año tras introducir dicha política. Tales variaciones, cuando se basan en el perfil del consumidor, pueden suponer una discriminación económica injustificada, vulnerando el principio de equidad en las relaciones de consumo reconocido en nuestra legislación. La normativa vigente exige que las prácticas de mercado se guíen por la transparencia y la buena fe contractual, pero hoy en día el consumidor ni siquiera es informado de que el precio es dinámico ni de los factores que motivan su fluctuación. Esta opacidad algorítmica atenta contra derechos básicos del consumidor, como el derecho a la información veraz, la libre elección y la no discriminación arbitraria.
En efecto, la IA ha elevado la discriminación de precios a niveles sin precedentes, pudiendo cada comprador recibir un precio distinto calculado según su disposición individual a pagar. Se trata, como ha advertido la doctrina encabezada por GROCHOWSKI, de una forma de discriminación algorítmica en los precios que plantea complejas cuestiones jurídicas y éticas, al tratar de modo desigual a consumidores en situación equivalente basándose en datos personales o patrones de conducta inferidos automáticamente. El problema central es determinar en qué punto la personalización deja de ser legítima innovación comercial para convertirse en discriminación injusta o práctica abusiva. Ofrecer descuentos personalizados a ciertos clientes habituales podría considerarse válido, pero cobrar sistemáticamente un precio mayor a un determinado segmento (por ejemplo, según la zona de residencia, signos externos de la capacidad económica a través de los medios de pago preestablecidos, tecnología del terminal de acceso, alfabetización digital…) sería una explotación ilegítima de la asimetría de información, contraria a la equidad en el consumo.
El Derecho positivo actualmente permite la personalización de precios, pero ha introducido requisitos de transparencia para mitigar riesgos. La Directiva (UE) 2019/2161 del Parlamento Europeo y del Consejo de 27 de noviembre de 2019 por la que se modifica la Directiva 93/13/CEE del Consejo y las Directivas 98/6/CE, 2005/29/CE y 2011/83/UE del Parlamento Europeo y del Consejo, en lo que atañe a la mejora de la aplicación y la modernización de las normas de protección de los Consumidores de la Unión (conocida como Directiva Ómnibus), que modificó la normativa europea de consumidores, exige que el empresario informe al consumidor si el precio que se le ofrece ha sido personalizado sobre la base de tratamiento automatizado de datos. Esta medida —que debe incorporarse en la información precontractual— busca al menos alertar al comprador de que puede estar pagando un precio distinto al promedio por efecto de un algoritmo. No obstante, tal exigencia informativa por sí sola resulta manifiestamente insuficiente hoy en día para proteger a los consumidores de abusos, ya que la mayoría difícilmente podrá evaluar si el precio personalizado es justo. La asimetría de información y poder de negociación subyacente permanece: el comerciante digital conoce mucho sobre el consumidor gracias a sus datos, mientras que el consumidor ignora los parámetros y estrategias que el algoritmo utiliza en la fijación del precio.
Otro riesgo asociado a la fijación algorítmica de precios es la posibilidad de colusión artificial entre competidores. Algoritmos de distintos oferentes, diseñados para maximizar beneficios, pueden aprender a coordinarse tácitamente elevando precios de modo paralelo (tacit collusion), sin necesidad de acuerdo humano previo. Aunque este fenómeno se inscribiría más propiamente en el ámbito del derecho de la competencia (antitrust), sus efectos perjudican directamente a los consumidores a gran escala. Algoritmos independientes pueden llegar a resultados de precio más elevados que en competencia genuina, creando «cárteles electrónicos» difíciles de perseguir bajo la normativa actual de colusión, que exige típicamente demostrar un acuerdo deliberado. La mera posibilidad de estas colusiones algorítmicas impone reflexionar sobre soluciones regulatorias y sobre la coordinación entre autoridades de competencia y de consumo. En suma, la fijación dinámica de precios mediante IA desafía la noción clásica de precio como resultado del libre juego transparente de oferta y demanda, introduciendo opacidad y discriminación personalizada que pueden lesionar el interés colectivo de los consumidores en acceder a bienes en condiciones equitativas.
Más allá de los precios, la IA se emplea en multitud de prácticas comerciales automatizadas que pudieran ser calificadas de desleales o agresivas, lesionando derechos de los consumidores de forma igualmente masiva. Así, los algoritmos permiten una personalización manipulativa de contenidos, pueden perfilar al usuario y presentarles contenidos comerciales perfectamente adaptados a sus sesgos, gustos o incluso a sus momentos de mayor vulnerabilidad. De este modo, un sistema de IA podría identificar cuándo un consumidor tiende a realizar compras impulsivas (quizá a altas horas de la noche, o tras cierto comportamiento) y en esos momentos mostrarle ofertas especialmente persuasivas, difuminando la frontera entre oferta legítima y manipulación psicológica. Ciertos diseños oscuros de interfaz que inducen decisiones no deseadas —dark patterns— pueden ahora implementarse de forma dinámica e individualizada mediante IA, multiplicando su eficacia dañina sobre la colectividad de usuarios.
Agentes automatizados (chatbots, asistentes virtuales, etc.) pueden difundir información comercial potencialmente engañosa o incompleta de forma simultánea a miles de consumidores.
Asimismo, agentes automatizados (chatbots, asistentes virtuales, etc.) pueden difundir información comercial potencialmente engañosa o incompleta de forma simultánea a miles de consumidores. Podría pensarse a modo ilustrativo en un chatbot de atención al cliente programado para resaltar únicamente las ventajas de un producto financiero complejo, omitiendo riesgos importantes, podría inducir a error a numerosos usuarios. Cada consumidor individual podría alegar haber sido engañado, pero la práctica subyacente es común y responde a una programación central, configurando un engaño masivo sistemático. A diferencia de la publicidad tradicional, aquí la responsabilidad por el mensaje engañoso puede diluirse tras la autonomía aparente de la IA («no fue un agente humano quien mintió, sino un sistema»), lo que exige reafirmar que el proveedor que utiliza algoritmos sigue siendo responsable por las prácticas comerciales desleales cometidas en su nombre.
Igualmente preocupante es la explotación automatizada de circunstancias especiales. Algunos algoritmos detectan en tiempo real eventos o situaciones (sociales, económicas, personales) que afectan a un grupo de consumidores y ajustan automáticamente las condiciones comerciales en consecuencia. Por ejemplo, algoritmos de publicidad dirigida podrían identificar personas con adicciones (al juego, a compras compulsivas, etc.) y bombardearlas con anuncios de productos relacionados (casas de apuestas, alcohol), capitalizando de forma predatoria sus debilidades. Tales prácticas automatizadas, de existir, vulnerarían claramente la buena fe objetiva y la dignidad del consumidor, pudiendo calificarse como publicidad ilícita o práctica agresiva prohibida, al afectar a colectivos completos de individuos en situación de especial vulnerabilidad.
Estas técnicas muestran cómo la automatización inteligente de las estrategias comerciales amplifica el potencial de daño colectivo. Donde antes una práctica desleal podía darse caso a caso o en campañas generales, ahora las IA permiten afinar la conducta a cada víctima, escalando a miles de víctimas diferentes, pero siguiendo un patrón común programado. Esto dificulta la detección —pues cada consumidor ve solo su propia experiencia personalizada— y también la reacción jurídica, que debe ser colectiva para abarcar la totalidad del fenómeno. La tutela de intereses colectivos de los consumidores se revela esencial frente a estas prácticas. Es muy probable que solo una acción de alcance colectivo pueda identificar el patrón sistémico y obtener la cesación o remedios adecuados para el conjunto de afectados. De hecho, autoridades de consumo en algunos países han comenzado a investigar estas cuestiones. Un caso notable ocurrido en Chile es el analizado por MARTÍNEZ CÁRDENAS y BOZZO HAURI, donde el Servicio Nacional del Consumidor (SERNAC) investigó las variaciones de precios online y otras prácticas algorítmicas, llegando incluso a suscribir acuerdos voluntarios con empresas para corregir conductas y a promover acciones colectivas en tribunales cuando detectó cláusulas abusivas relativas al uso de datos o discriminación de clientes. Esto evidencia que la preocupación por las prácticas desleales automatizadas no es teórica. Los organismos de protección al consumidor empiezan a actuar proactivamente, y los instrumentos de litigación colectiva se perfilan como herramientas útiles para frenar abusos tecnológicos de gran escala.
Por otra parte, muchas decisiones automatizadas en ámbitos clave para los consumidores —concesión o denegación de créditos o seguros, fijación de límites de crédito, resolución de reclamaciones mediante IA, etc.— pueden afectar gravemente sus derechos e intereses económicos. La elaboración de perfiles mediante algoritmos puede perpetuar o agravar sesgos históricos presentes en los datos. Por ejemplo, sistemas de valoración de solvencia patrimonial —scoring crediticio— que penalicen a ciertos códigos postales ligados a rentas bajas o a minorías, u motores de recomendación que ofrezcan condiciones menos ventajosas a colectivos específicos, reproduciendo patrones discriminatorios. Casos documentados internacionalmente evidencian este peligro. Organismos como la Agencia Española de Protección de Datos (AEPD) han advertido que la adopción de decisiones sin intervención humana basadas exclusivamente en tratamientos automatizados exige especiales cautelas para no vulnerar el derecho fundamental a la igualdad de trato y no discriminación (art. 14 CE), desarrollado en normas como el RGPD, cuyo artículo 22 reconoce al afectado el derecho a obtener información significativa sobre la lógica empleada en este tipo de decisiones. No obstante, en la práctica esa información significativa rara vez llega al consumidor de modo comprensible o completo. La inexistencia de obligaciones legales claras de transparencia algorítmica en el ámbito del consumo provoca que muchas decisiones de enorme impacto socioeconómico se tomen sin control externo ni explicaciones, generando una situación de indefensión material contraria a los principios de tutela efectiva (art. 24 CE) y protección al consumidor (art. 51 CE).
En suma, los riesgos que plantean los algoritmos opacos en las relaciones de consumo son diversos: discriminación económica, segmentación abusiva, manipulación del comportamiento, desinformación masiva, violación de privacidad y, en general, una erosión de la autonomía del consumidor y de la igualdad en el mercado. Todo ello se ve agravado por la asimetría informativa extrema entre empresas (que conocen y controlan el algoritmo) y usuarios (que lo sufren sin entenderlo). Este diagnóstico justifica la demanda de mecanismos de transparencia y control específicos sobre los algoritmos, como parte esencial de la protección moderna de los consumidores.
El principio de transparencia algorítmica: fundamentos jurídicos y constitucionales
La transparencia informativa hacia el consumidor ha sido tradicionalmente uno de los pilares del derecho de consumo, íntimamente ligado al consentimiento válido, la buena fe contractual y la protección de la parte débil. Para MINERVINI el término «transparencia» es un modo rissuntivo (resumido) para expresar el concepto de información completa y adecuada y debe entenderse como plena cognoscibilidad de la oferta recibida, las condiciones contractuales y su trascendencia jurídica y económica. Esta idea de «transparencia» como máxima información es también un concepto económico. En microeconomía se habla de «transparencia» como uno de los requisitos para poder definir un mercado de competencia perfecta y se asimila el término a «información perfecta» o «conocimiento perfecto». MIQUEL GONZALEZ señala que la transparencia exige que el consumidor conozca la carga económica que en su conjunto el contrato supone, así como la prestación que va a obtener. Como concluye, en suma, ORDUÑA MORENO el control de transparencia se proyecta sobre la comprensión real de la carga jurídica y económica que asume el adherente tomando en consideración todo el curso negocial de la contratación seriada, es decir, desde la publicidad de la oferta del producto o servicio hasta la reglamentación predispuesta, propiamente dicha, todo ello como un fenómeno unitario sujeto a la valoración de este control.
La jurisprudencia europea en materia de consumidores ha enfatizado reiteradamente que la transparencia no es un mero formalismo, sino una condición esencial para la validez del consentimiento y la protección eficaz del consumidor como parte débil del contrato.
En el ámbito de las cláusulas abusivas, por ejemplo, el Tribunal de Justicia de la Unión Europea exige la comprensibilidad real de las condiciones, de modo que el consumidor pueda prever las consecuencias económicas y jurídicas de lo que firma. Por analogía, las condiciones «algorítmicas» que determinan precios, ofertas o decisiones deberían someterse a un estándar similar de comprensibilidad y lealtad hacia el consumidor. En otras palabras, el usuario tendría derecho a conocer cómo le afectan los sistemas automatizados empleados por los proveedores, en la medida en que esos sistemas influyen en el contenido o ejecución del contrato.
Es preciso por tanto asumir la necesidad de la «transparencia algorítmica» como nuevo principio general del Derecho de consumo. Este principio implicaría el derecho del usuario a saber que se está utilizando un algoritmo en su interacción de consumo y a entender, aunque sea en términos generales, los criterios bajo los cuales opera dicho algoritmo. Estamos ante una evolución de los clásicos derechos básicos del consumidor (información, protección de intereses económicos, reparación de daños, etc.) hacia terrenos tecnológicos: el derecho a una información clara y veraz sobre los procesos automatizados que le atañen, y el derecho a no ser discriminado ni perjudicado por decisiones tomadas por máquinas sin transparencia.
En el ordenamiento español, existen fundamentos constitucionales que apuntalan esta exigencia de transparencia algorítmica. El artículo 51 de la Constitución Española establece que los poderes públicos garantizarán la defensa de los consumidores y usuarios, protegiendo sus legítimos intereses económicos y promoviendo la información y la educación de los consumidores para un consumo responsable y transparente. Este mandato constitucional impone al legislador y a la administración activa un deber de tutela especial sobre el consumidor, reconocidamente la parte débil en el mercado. A su vez, el artículo 14 CE consagra el derecho fundamental a la igualdad y no discriminación, que puede verse vulnerado por algoritmos opacos que traten de manera desigual a personas en situaciones comparables (v.gr., ofreciendo sistemáticamente peores condiciones a ciertos colectivos). Finalmente, el artículo 105 b) CE garantiza el derecho de acceso de los ciudadanos a los archivos y registros administrativos, base de la transparencia en la actividad pública, precepto que ya ha sido interpretado por la jurisprudencia más reciente en el sentido de abarcar también la transparencia de los algoritmos utilizados por la Administración.
Derivado de esos preceptos, puede afirmarse que la transparencia algorítmica conecta con valores y derechos constitucionales fundamentales: la protección de los consumidores (art. 51 CE), la igualdad (art. 14 CE) y la transparencia en las actuaciones públicas (art. 105 CE). Además, guarda relación con el derecho a la tutela judicial efectiva (art. 24 CE), pues si las decisiones que afectan a un consumidor se toman de manera inescrutable, difícilmente podrá aquel defenderse o impugnarlas eficazmente en sede judicial. También incide en el derecho a la información (art. 20 CE) y, tratándose de datos personales, en el derecho a la protección de datos (art. 18.4 CE), ya que muchas decisiones algorítmicas se basan en el procesamiento de información personal.
La reciente jurisprudencia española ha dado pasos significativos para materializar estos principios en el contexto algorítmico. En particular, la STS 1119/2025, de 17 de septiembre (recurso 7878/2024), —resolviendo el conocido caso BOSCO—, constituye un hito en materia de transparencia algorítmica. En este caso, el Tribunal Supremo reconoció que el derecho de acceso a la información pública (art. 105 b) CE y la normativa de transparencia) se extiende al código fuente de los algoritmos administrativos que adoptan decisiones automatizadas con impacto en derechos de los ciudadanos. Es decir, se declaró que el principio de transparencia es inseparable del Estado de Derecho incluso cuando las decisiones se instrumentan mediante software. La propiedad intelectual o la invocación genérica de riesgos de seguridad no pueden erigirse en límites absolutos al derecho a saber cómo funciona un algoritmo público. Como ha razonado nuestro Tribunal Supremo, la transparencia exigible en el funcionamiento de la aplicación telemática BOSCO, con relevante impacto en los derechos sociales de los ciudadanos, no queda garantizada con la mera explicación funcional ofrecida por la Administración, sino que exige el acceso a su algoritmo, pues de otro modo no resultaría posible comprobar con exactitud su funcionamiento ni su conformidad con las normas aplicables. Esta contundente afirmación judicial consagra la idea de que la opacidad algorítmica es incompatible con el Estado de Derecho. Aunque la sentencia se refiere al ámbito de la Administración pública, su principio subyacente cual es el derecho a conocer las particularidades de las decisiones automatizadas que nos afectan, tiene un indudable valor transversal que sin duda irradiará al sector privado y al derecho de consumo. De hecho, el Tribunal Supremo alude expresamente al carácter constitucional de ese derecho a la transparencia algorítmica, elevándolo a la categoría de principio general.
La exigencia de transparencia en los algoritmos se sustenta en la protección de derechos fundamentales y en mandatos expresos al legislador
En suma, desde la perspectiva jurídico-constitucional, la exigencia de transparencia en los algoritmos se sustenta en la protección de derechos fundamentales y en mandatos expresos al legislador. Garantizar que ninguna decisión significativa que afecte a un consumidor se adopte mediante «algoritmos inescrutables o no supervisados» se ha convertido en una demanda acorde con dichos fundamentos.
El marco normativo vigente: España y la Unión Europea
A pesar de la creciente conciencia sobre los riesgos descritos, el marco normativo español vigente aún no contiene una regulación integral de la transparencia algorítmica en las relaciones de consumo. No existe por ahora una norma que obligue expresamente a las empresas a revelar información sobre los algoritmos que utilizan en sus interacciones con consumidores, ni un registro unificado de tales sistemas en el sector privado. No obstante, sí pueden identificarse normas dispersas que tocan indirectamente esta materia, así como desarrollos incipientes tanto en España (a nivel autonómico) como en la Unión Europea que sientan bases para avanzar hacia un registro de algoritmos.
En el Derecho español de consumo, la principal norma es el Real Decreto Legislativo 1/2007, de 16 de noviembre por el que se aprueba el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras normas complementarias (TRLGDCU). Dicha ley consagra derechos básicos del consumidor como la protección de sus intereses económicos, la información correcta, la protección contra cláusulas abusivas, etc. Si bien la TRLGDCU no menciona los algoritmos —es un Texto Refundido de la Ley 26/1984—, sus principios de información y transparencia contractual podrían interpretarse en el sentido de exigir cierto grado de explicabilidad cuando intervienen sistemas automatizados en la contratación. Así, el artículo 8 TRLGDCU reconoce el derecho a la información de los consumidores, y el art. 20 y ss. detallan obligaciones de información precontractual en ventas a distancia. Tras la transposición de la Directiva 2019/2161 (Ómnibus) mediante la Ley 4/2022, de 25 de febrero, de protección de los consumidores y usuarios frente a situaciones de vulnerabilidad social y económica y la posterior modificación operada por Real Decreto-ley 8/2024, de 28 de noviembre, se ha incorporado en España (actual art. 20.1 c) TRLGDCU) la obligación de informar al consumidor si el precio se personaliza sobre la base de algoritmos o tratamiento automatizado de datos. Esta reciente modificación, alineada con la directiva europea, representa un primer paso toda vez que ahora el empresario debe advertir al cliente, antes de la compra, de la existencia de precios dinámicos personalizados. Sin embargo, esa obligación se limita al deber de informar de la personalización del precio, sin requerir una explicación del funcionamiento del algoritmo ni garantizar controles preventivos. Por tanto, continúa habiendo un vacío respecto a cómo se asegura que esos algoritmos sean equitativos y no abusivos.
En el ámbito de la Administración pública española, sí encontramos reglas sobre decisiones automatizadas. La Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público define la actuación administrativa automatizada (art. 41) y prevé que deberá publicarse mediante resolución el algoritmo o sistema de inteligencia artificial utilizado, garantizando los derechos de los interesados. En julio de 2021, España ha aprobado también la Carta de Derechos Digitales, que aun siendo un documento de política pública sin fuerza legal, resulta orientador, reconociendo el derecho a la inteligibilidad de los algoritmos y se aboga por la transparencia en las decisiones automatizadas tanto en el sector público como en el privado. Igualmente, tras la aprobación de la Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de empresas emergentes, ha tenido lugar la aprobación de la creación de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), en virtud del Real Decreto 729/2023, de 22 de agosto. La AESIA tiene entre sus funciones velar por el uso ético de la IA. Todos estos desarrollos muestran un movimiento hacia establecer principios de transparencia y supervisión algorítmica. No obstante, falta su aterrizaje concreto al ámbito de las relaciones de consumo privadas.
Donde sí se han dado pasos normativos más definidos es en el ámbito de la UE. La UE ha adoptado recientemente varias normas que abordan tangencialmente la transparencia de algoritmos:
- El Reglamento (UE) 2022/2065, del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales —Digital Services Act, DSA—), aplicable desde 2024, impone a las grandes plataformas en línea requisitos de transparencia sobre sus algoritmos de recomendación y publicidad, así como auditorías externas de sus sistemas de gestión de contenidos. De este modo las plataformas como redes sociales deben informar a los usuarios de los criterios principales de sus sistemas de recomendación de contenidos y ofrecer opciones de al menos un algoritmo «no personalizado». En publicidad dirigida, el DSA exige identificar claramente anuncios y qué datos se usan para perfilado. Estas obligaciones refuerzan la transparencia, pero se circunscriben a plataformas de muy gran tamaño o a ámbitos específicos (moderación de contenidos, publicidad en línea), sin abordar la multitud de algoritmos comerciales fuera de ese ámbito.
- El Reglamento (UE) 2024/1689, del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008 (UE) n.o 167/2013 (UE) n.o 168/2013 (UE) 2018/858 (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial —AI Act—), recientemente aprobado establece un marco jurídico horizontal para la IA. Este Reglamento adopta un enfoque basado en el riesgo. Impone obligaciones estrictas a los proveedores de sistemas de IA de alto riesgo, entre ellas la inscripción de dichos sistemas en una base de datos pública de la UE. Este registro europeo de IA requerirá a las empresas proporcionar información clave sobre los sistemas (uso previsto, nivel de riesgo, cumplimiento de requisitos esenciales, etc.), gran parte de la cual será accesible al público. Sin embargo, el AI Act no cubre todos los supuestos de impacto algorítmico en consumo. Se centra en los sistemas clasificados como de alto riesgo según sus anexos (v.gr, los que determinan acceso a educación, empleo, crédito, servicios públicos esenciales, etc.), dejando fuera muchas aplicaciones comerciales cotidianas. Además, incluso para los sistemas de alto riesgo, el registro de la UE no obliga a detallar elementos esenciales como el código fuente o los datos de entrenamiento, que suelen permanecer en la esfera del secreto empresarial. En definitiva, aunque el Reglamento de IA supone un avance significativo hacia la transparencia, resulta aún insuficiente en alcance y detalle respecto de la amplia gama de algoritmos que inciden en los consumidores.
- La ya mencionada Directiva (UE) 2019/2161 (Ómnibus), además de la transparencia en precios personalizados, refuerza las obligaciones de información al consumidor en mercados en línea. Así, exige informar si un resultado de búsqueda en una plataforma se destaca por pago (ranking de pago), o la identidad del proveedor real en marketplaces. Estas medidas combaten la opacidad en entornos digitales, pero no prevén mecanismos proactivos de control algorítmico.
- Cabe señalar también la Directiva (UE) 2024/2853, del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, sobre responsabilidad por los daños causados por productos defectuosos y por la que se deroga la Directiva 85/374//CEE intenta facilitar las reclamaciones por daños causados por sistemas de IA invirtiendo en ciertos casos la carga de la prueba y permitiendo al afectado solicitar a los proveedores la revelación de información sobre el funcionamiento del algoritmo. Ello evidencia la preocupación por la asimetría probatoria en litigios con IA y la necesidad de soluciones que aumenten la transparencia ex post para fines de responsabilidad.
En síntesis, el derecho europeo apunta hacia la transparencia algorítmica, pero hasta ahora de manera fragmentaria y focalizada en determinados actores (grandes plataformas) o sectores (IA «alto riesgo», precios personalizados), sin un régimen integral para todos los algoritmos de relevancia en consumo. Esto abre espacio a que los Estados miembros desarrollen instrumentos adicionales de tutela dentro de sus competencias. La propia normativa europea reconoce expresamente la posibilidad de medidas nacionales más estrictas en protección de consumidores, siempre que sean compatibles con el mercado interior. España tiene la oportunidad de situarse a la vanguardia legislando un Registro Estatal de Algoritmos que complemente y refuerce el esquema comunitario.
Experiencias comparadas: transparencia algorítmica en otras jurisdicciones
La inquietud por controlar los algoritmos opacos no es exclusiva de España ni de la UE. Otras jurisdicciones han ensayado distintas aproximaciones, ofreciendo lecciones valiosas de derecho comparado.
En el entorno europeo cercano, destacan países pioneros en crear registros públicos de algoritmos. Países Bajos fue de los primeros en lanzar un registro nacional integral de algoritmos usados por administraciones públicas, con cientos de sistemas inscritos. El caso holandés es paradigmático, contando su registro de algoritmos con más de 600 algoritmos registrados, accesibles mediante APIs que permiten un seguimiento en tiempo real de sus actualizaciones. Esta arquitectura dinámica contrasta con modelos más limitados de otros países (inventarios en PDF estáticos, por ejemplo), evidenciando la necesidad de dotar a estos registros de un carácter verdaderamente útil y vivo para el control democrático. Francia incluyó ya en su Ley de República Digital de 7 de octubre de 2016 un principio de transparencia de los algoritmos públicos, obligando a las administraciones a informar a los ciudadanos de las reglas simples de algoritmos que les afecten individualmente y a publicar el código fuente de ciertas aplicaciones (salvo en casos de IP o seguridad). Algunas ciudades como París han desarrollado repertorios de algoritmos municipales accesibles en línea. Noruega y Reino Unido también han avanzado. En Noruega se elaboró un registro central de algoritmos gubernamentales, y en el Reino Unido el gobierno lanzó en 2021 una Norma de Transparencia Algorítmica para el sector público, con carácter voluntario, animando a las agencias a publicar informes sobre sus sistemas automatizados (varios ministerios británicos han hecho públicas transparency notices sobre algoritmos utilizados en decisiones administrativas). Aunque estas iniciativas europeas se han concentrado en el sector público, marcan un camino a seguir. Su premisa es clara: sin transparencia y trazabilidad, los algoritmos pueden socavar la eficacia de las leyes e instituciones de protección.
En 2020, los países iberoamericanos adoptaron la llamada Carta Iberoamericana de Derechos en entornos digitales, que incluye principios de transparencia algorítmica y promoción de auditorías
En Latinoamérica también surgen proyectos. Chile, a nivel gubernamental, ya anunció en 2023 la creación de un registro voluntario de algoritmos usados por agencias públicas, como parte de su política de inteligencia artificial. A su vez, la experiencia de SERNAC antes mencionada muestra a una agencia de consumo utilizando herramientas tradicionales (investigaciones y litigios) para lidiar con algoritmos empresariales. Brasil promulgó en 2021 una Ley de Gobierno Digital que obliga a publicar información sobre algoritmos usados en servicios públicos y a realizar auditorías algorítmicas en ciertos casos. Uruguay incorporó en su Ley de Protección de Datos una sección sobre decisiones automatizadas, dando derecho a solicitar información sobre la lógica del procesamiento. En 2020, los países iberoamericanos adoptaron la llamada Carta Iberoamericana de Derechos en entornos digitales, que incluye principios de transparencia algorítmica y promoción de auditorías, aunque sin fuerza vinculante.
En Estados Unidos, la aproximación ha sido diferente, caracterizada por menos regulación ex ante y más recurso a la vía judicial ex post. No existe una ley federal general sobre algoritmos o IA. El enfoque estadounidense se ha centrado en soft law (guías de la FTC, manuales de buenas prácticas) y en la aplicación de leyes sectoriales o generales (p.ej., antidiscriminación) caso por caso. Sin embargo, a nivel estatal han surgido leyes innovadoras que, combinadas con el potente mecanismo de las class actions, están incidiendo en la rendición de cuentas algorítmica. Un ejemplo emblemático es la Illinois Biometric Information Privacy Act (BIPA) de 2008, pionera en regular el uso empresarial de datos biométricos (huellas dactilares, reconocimiento facial, etc.). BIPA exige consentimiento informado y prohíbe lucrar con datos biométricos, pero su rasgo más notable es que concede a las personas un derecho de acción privado en caso de violación, con daños estatutarios prefijados (USD 1.000 por negligencia, 5.000 si es intencional, por cada afectado). Esto ha motivado un ajuste ético de las empresas que emplearon algoritmos biométricos sin cumplir requisitos: desde cadenas que usaban relojes de fichaje por huella, hasta redes sociales con etiquetado facial automático. El caso Patel vs. Facebook (N.D.Cal. 2019) agrupó a 1,3 millones de usuarios de Illinois a quienes Facebook aplicó reconocimiento facial sin autorización; Facebook terminó transigiendo y pagó 650 millones de dólares para evitar un juicio, debiendo además desactivar globalmente la función de etiquetado facial. Tras BIPA, otros estados (Texas, Washington) aprobaron leyes similares sobre biométricos, y California incluyó derechos respecto a algoritmos en su ley de privacidad del consumidor (CCPA/CPRA). Por otro lado, se han intentado demandas colectivas por discriminación algorítmica (v.gr., el caso de la Apple Card, acusada de dar menores líneas de crédito a mujeres) y por prácticas engañosas mediante dispositivos inteligentes que grababan sin permiso. Si bien muchas de estas acciones están en fases iniciales o se resuelven extrajudicialmente, configuran un entorno donde la litigación privada actúa como mecanismo de transparencia de facto. Las empresas se ven obligadas a revelar información durante el discovery o a cambiar sus algoritmos para evitar pleitos. En suma, el modelo norteamericano ha confiado en la responsabilidad ulterior más que en la regulación previa.
El panorama comparado muestra, por tanto, un amplio reconocimiento del problema y distintas vías para enfrentarlo. La creación de registros de algoritmos se vislumbra como una de las herramientas más prometedoras en modelos proactivos (Europa, algunos países latinoamericanos), mientras que la acción colectiva y las sanciones privadas han emergido donde falta regulación (EEUU). Tomando nota de todas estas experiencias, España puede diseñar un sistema propio que combine lo mejor de ambos mundos: prevención y transparencia ex ante a través de un Registro Estatal, complementado con medidas de supervisión, auditoría e incluso facilitación de reclamaciones colectivas cuando haya abusos.
Propuesta de lege ferenda: hacia un registro estatal de algoritmos en consumo
A la luz de lo anterior, resulta conveniente y necesario que España avance en la creación de un Registro Estatal de Algoritmos con impacto en las relaciones de consumo. Este Registro, concebido como instrumento institucional estable, daría respuesta a los desafíos identificados, materializando el principio de transparencia algorítmica en garantía efectiva para los consumidores. A continuación, se expone una propuesta normativa de lege ferenda para implementar dicho registro, integrando las dimensiones constitucional, civil y administrativa analizadas, y aprovechando las mejores prácticas comparadas e iniciativas europeas.
El Registro Estatal de Algoritmos se concibe como una plataforma unificada, obligatoria y accesible donde inscribir aquellos sistemas automatizados de decisión, recomendación o fijación de condiciones utilizados en mercados de bienes y servicios de consumo que puedan afectar de manera significativa a los derechos e intereses de los consumidores. Ello incluiría, a título ilustrativo: algoritmos de personalización de precios u ofertas, motores de publicidad segmentada, sistemas de puntuación o scoring de usuarios, asistentes virtuales que adopten decisiones automáticas, entre otros.
El criterio es funcional debiendo abarcar todos los sistemas cuyo funcionamiento pueda incidir en las condiciones contractuales, el contenido de la oferta, el acceso a bienes/servicios o el trato dispensado al consumidor (v.gr., concesión o denegación de un servicio) de forma relevante. Quedarían excluidos algoritmos de mínima relevancia o meramente internos que no impacten al consumidor de forma apreciable, para evitar cargas innecesarias.
El propósito central es dotar de publicidad, trazabilidad y control a dichos sistemas automatizados. Esto significa que los algoritmos que operan en ámbitos sensibles de consumo no actúen en la sombra, sino que se encuentren identificados y documentados, permitiendo auditorías independientes y supervisión por autoridades. Se pretende asegurar que los parámetros y criterios esenciales de funcionamiento de cada algoritmo sean transparentes y comprensibles para los consumidores, previniendo con ello posibles sesgos o discriminaciones automatizadas. Al mismo tiempo, el Registro reforzaría la capacidad de intervención de las autoridades competentes —de consumo, protección de datos, supervisión de IA e incluso de competencia— cuando un sistema ponga en riesgo derechos fundamentales o intereses económicos legítimos de los usuarios. En suma, se trata de materializar el principio de transparencia algorítmica dotándolo de garantías efectivas para que el consumidor pueda saber que se emplea un algoritmo y con qué propósito, que ninguna empresa pueda escudarse en el secreto comercial para ocultar prácticas lesivas, y que se puedan exigir responsabilidades cuando un resultado automatizado cause perjuicios. A su vez, la existencia del Registro permitiría que expertos independientes (universidades, centros de investigación, asociaciones especializadas) evalúen periódicamente estos sistemas para verificar su conformidad con la ley, la ética y los derechos fundamentales. En suma, una democracia avanzada y un mercado competitivo no pueden tolerar «zonas oscuras» donde la tecnología actúe sin rendir cuentas.
Por lo que respecta al contenido de la inscripción, cada algoritmo o sistema de IA relevante debería inscribirse mediante una ficha técnica estandarizada que detalle, al menos, los siguientes campos:
- Identificación del sistema: nombre o denominación del algoritmo (o del producto/servicio que lo incorpora) y, de ser aplicable, versión. Si el proveedor usa internamente un código, ese identificador se consignaría para permitir trazabilidad de actualizaciones.
- Finalidad y ámbito de uso: descripción del propósito del algoritmo (ej. «personalización dinámica de precios en comercio electrónico», «motor de recomendación de productos financieros», «sistema de evaluación de solvencia crediticia online») y el ámbito específico donde se aplica (sector, tipo de productos/servicios, canales).
- Datos empleados: categorías de datos de entrada que el algoritmo utiliza para tomar decisiones o clasificar (por ejemplo, datos personales demográficos, historial de comportamiento en la web, ubicación, etc.), indicando tipologías de datos, pero sin comprometer secretos industriales.
- Criterios principales de decisión o segmentación: una explicación sucinta y clara de las variables o factores que más pondera el algoritmo para su resultado. Por ejemplo: «El precio se ajusta principalmente según la demanda en tiempo real, el historial de compras del usuario en la plataforma y su localización aproximada»; o «El algoritmo de recomendación prioriza productos similares a los adquiridos anteriormente por el usuario y valoraciones de clientes con perfil análogo». No se pretende desvelar el know-how detallado, sino dar al consumidor una idea comprensible de en qué se basa la decisión automática.
- Medidas de equidad y calidad: indicación de si el proveedor ha implementado medidas para mitigar sesgos, errores o resultados discriminatorios (por ejemplo, si se ha realizado una auditoría de sesgos previa, si el modelo se reentrena periódicamente para corregir desviaciones, si se excluyen ciertos datos sensibles como raza o salud, etc.). Esto incentivará a las empresas a adoptar diligencia algorítmica, sabiendo que deberán declarar qué hacen para garantizar un algoritmo fiable y no discriminatorio.
La puesta en marcha del Registro conllevaría una serie de obligaciones legales para las empresas:
- Obligación de informar al consumidor: de forma previa, clara y expresa, cuando en la transacción interviene un algoritmo o sistema de IA que determina el precio, las condiciones u otras decisiones relevantes sobre el producto o servicio. Esta información incluirá al menos una indicación de que se ha utilizado un tratamiento automatizado de datos y los factores básicos considerados por dicho algoritmo. Por ejemplo: «El precio mostrado ha sido personalizado mediante un sistema automatizado que considera su historial de navegación y compras». Se trata de trasladar al terreno algorítmico el tradicional deber de información precontractual, empoderando al consumidor para que sepa que está interactuando con una decisión automatizada. Esto ya es parcialmente exigido por la Directiva Ómnibus para precios personalizados, pero la idea es extenderlo a todas las decisiones significativas automatizadas (no solo precio, también si se le rechaza una solicitud, si las condiciones mostradas difieren por perfil, etc.).
- Prohibición de algoritmos discriminatorios o abusivos: se propondría vedar expresamente ciertos parámetros algorítmicos abusivos. Por ejemplo, prohibir el empleo de datos sensibles —estado de salud, origen étnico, orientación sexual, creencias, situación de vulnerabilidad personal— para ajustar al alza precios o denegar prestaciones, salvo que exista justificación legítima y proporcional. Igualmente, se podría presumir abusivo cualquier algoritmo que de facto implique discriminación indirecta injustificada contra un grupo protegido de consumidores. El registro en sí mismo ayudaría a detectar tales prácticas.
- Estabilidad de ofertas personalizadas: una medida innovadora sugerida es garantizar que, iniciado un proceso de contratación electrónica, el precio u oferta personalizada no varíe en perjuicio del consumidor durante un período razonable. Con ello se evitarían prácticas oportunistas como modificar el precio «sobre la marcha» si el algoritmo detecta interés del usuario (lo que algunas plataformas realizan, elevando el precio si el usuario repite visita). Se podría exigir, por ejemplo, que una vez presentado un precio personalizado en el carrito o en la pantalla de compra, éste se mantenga fijo durante X tiempo, salvo causas justificadas. Esto brindaría seguridad y evitaría manipulaciones temporales.
- Inscripción obligatoria en el Registro: las empresas responsables deberán inscribir o notificar sus sistemas automatizados de decisión en el Registro Estatal de Algoritmos, aportando la ficha técnica antes descrita. La inscripción podría hacerse en línea a través de la plataforma habilitada, posiblemente mediante declaración responsable inicial por parte de la empresa, sujeta a posterior verificación. Habría que definir plazos (p.ej., inscripción obligatoria antes de empezar a usar el algoritmo con consumidores, con posibilidad de actualizar cuando hay cambios sustanciales en el sistema). Esta obligación de registro sería el corazón del sistema de modo que ningún algoritmo relevante pudiera operar «a escondidas» sin haber sido declarado. Su incumplimiento debería conllevar la aplicación de un régimen sancionatorio.
- Acceso público y reservado: el Registro tendría una parte de acceso público —con la información general y descriptiva de los algoritmos registrados— y, a la vez, garantizaría la reserva de la información confidencial o sensible accesible únicamente para autoridades de supervisión cuando esté justificado o bajo autorización judicial si se considerara preciso para el ejercicio de acciones judiciales. Es decir, el ciudadano común podría consultar en el portal del Registro qué algoritmos utiliza tal empresa, con la descripción básica y los datos genéricos, pero no tendría acceso a secretos comerciales de modo que no vería el código fuente ni datos excesivamente técnicos salvo autorización. Sin embargo, las autoridades reguladoras (Agencia de IA, autoridades de consumo, protección de datos, etc.) sí podrían, en ejercicio de sus competencias, requerir acceso a información detallada o incluso al código fuente en casos necesarios en el curso de la investigación de posibles infracciones, auditorías selectivas, etc., tal como hoy pueden inspeccionar documentación interna de una empresa ante indicios de cláusulas abusivas o prácticas desleales. Esto equilibra la transparencia con la protección del know-how, atendiendo a la advertencia de no desincentivar la innovación, pero asegurando que el secreto comercial no se use como escudo absoluto, en línea con la doctrina del Tribunal Supremo en el caso BOSCO.
- Auditorías independientes periódicas: la normativa deberá habilitar fórmulas para que organismos públicos, asociaciones de consumidores, universidades u otras entidades especializadas puedan analizar periódicamente el comportamiento de los algoritmos inscritos. Esto podría articularse mediante convenios de las autoridades con universidades, o mediante la figura del sandbox regulatorio para IA, etc. La Agencia Española de Supervisión de la IA (AESIA) desempeñaría aquí un papel central, coordinando con las autoridades de consumo y de protección de datos dichas evaluaciones periódicas. Se verificaría la conformidad de los algoritmos con los principios legales aplicables como el de la no discriminación, transparencia, seguridad, fiabilidad, respeto a la normativa de consumo, de privacidad y demás. Estas auditorías podrían resultar en informes públicos con recomendaciones, o incluso en requerimientos vinculantes a las empresas para corregir algoritmos que presenten sesgos o incumplimientos. La posibilidad de auditoría crea un incentivo a las empresas a un comportamiento leal con el consumidor.
Para implementar lo anterior, se requerirían reformas legislativas concretas, que podrían estructurarse en tres niveles: reforma del vigente TRLGDCU, aprobación de una ley especial, y desarrollo reglamentario:
A) Reforma de la Ley General de Consumidores (TRLGDCU). Una primera posibilidad de intervención normativa sería incorporar un nuevo precepto (por ejemplo, en el Título Preliminar o en el capítulo de derechos básicos) que establezca explícitamente el derecho del consumidor a la transparencia algorítmica. Así podría enunciarse que «El consumidor tiene derecho a recibir información previa clara, relevante y veraz sobre el uso de algoritmos o sistemas automatizados en cualquier aspecto que pueda afectar significativamente a sus intereses en la contratación de bienes y servicios, especialmente en la determinación personalizada de precios o condiciones, así como a no ser discriminado por razón de dichos tratamientos automatizados». Además, podría adicionarse: «Los empresarios que utilicen sistemas algorítmicos con impacto en los consumidores deberán inscribirlos en el Registro Estatal de Algoritmos en los términos que se establezcan reglamentariamente, y facilitar al consumidor, antes de la contratación, información comprensible sobre los criterios generales en que se basa el funcionamiento de tales sistemas». Paralelamente, en coherencia con esta previsión debería modificarse el régimen sancionador de la Ley para tipificar como infracción específica la omisión de la inscripción obligatoria de un algoritmo en el Registro o la falta de información al consumidor sobre su uso, graduando la sanción (grave o leve) según el potencial impacto y la negligencia o intencionalidad. Estas reformas darían base legal clara a las obligaciones de registro e información, con sus consecuencias en caso de incumplimiento.
B) Ley especial sobre transparencia algorítmica en consumo. Dado el carácter transversal y técnico de la materia, podría plantearse desarrollar una Ley específica (o incluir un capítulo extenso en una futura Ley Digital) que regule con detalle las obligaciones de transparencia, evaluación de impacto y controles periódicos de los algoritmos en relaciones de consumo. Esta ley especial consolidaría todo lo relativo al Registro Estatal de Algoritmos y sus herramientas asociadas. Incluiría: definiciones (qué se entiende por algoritmo de impacto significativo en consumo, etc.), el ámbito objetivo y subjetivo (qué empresas deben cumplir, probablemente todas las que ofrezcan bienes/servicios a consumidores en España, con independencia de su sede, siempre que operen aquí), las obligaciones de información, los procedimientos de auditoría, el régimen de infracciones y sanciones específico, etc. Podría inspirarse en el mencionado principio de transparencia algorítmica reconocido por el Tribunal Supremo en la Sentencia 1119/2025, elevándolo a ley. Asimismo, bebería de precedentes como el Anteproyecto de Ley de Inteligencia Artificial que ya esboza medidas de transparencia en sistemas de IA. En tal ley podría incorporarse un catálogo de derechos del consumidor frente a la IA: derecho a ser informado de la lógica general, derecho a solicitar intervención humana o revisión de decisiones automatizadas significativas, etc., en consonancia con el RGPD y con iniciativas doctrinales en la materia. Todo ello reforzaría la tutela sustantiva y procesal de los consumidores ante los algoritmos.
C) Reglamento de desarrollo técnico. Finalmente, una vez establecida la base legal, el Gobierno debería aprobar un Reglamento que dé vida operativa al Registro Estatal de Algoritmos. En este reglamento se detallarían aspectos prácticos: organismo responsable de la gestión (seguramente la AESIA, en coordinación con el Ministerio de Consumo, podría encargarse de la gestión cotidiana del registro); procedimiento de inscripción (cómo y cuándo inscribir, formato de la ficha técnica, plazos, la posible gratuidad del trámite, etc.), permitiendo quizá que empresas pequeñas hagan declaraciones responsables sencillas, mientras que a las grandes se les exija más detalle; clasificación de los algoritmos inscritos (por sectores o por nivel de riesgo, para facilitar búsquedas y análisis: p. ej., etiquetar cada entrada como «pricing», «scoring», «recomendación», «logística», etc.); mecanismos de control y verificación de la información aportada (incluyendo potestades inspectoras: es decir, facultad de las autoridades para requerir a la empresa documentación adicional o incluso acceso al código fuente si hay indicios de ilegalidad o grave perjuicio); modo de acceso público a la información (asegurando que la base de datos sea fácilmente accesible online, con buscador, y que se actualice permanentemente con prácticas como las APIs de datos abiertos en tiempo real implementadas en Países Bajos); y coordinación con registros europeos existentes, muy importante para evitar duplicidades. Así, si un sistema ya está inscrito en la base de datos europea de IA de alto riesgo, se podría automatizar la importación de esa información al registro nacional, o al menos eximir de repetir trámites, creando un vínculo interregistros para evitar al mismo tiempo una burocracia innecesaria para las empresas. Asimismo, el reglamento debería crear un Consejo Asesor del Registro, con participación de organizaciones de consumidores, expertos en ética de IA, representantes empresariales y otras partes interesadas, para asegurar la participación de la sociedad civil en la supervisión (aplicando el principio participativo de la ciudadanía). En definitiva, se trata de diseñar el registro no como un mero depósito burocrático de información, sino como una auténtica herramienta al servicio de la transparencia y la rendición de cuentas, fácilmente accesible al ciudadano y útil para detectar y corregir posibles desviaciones de los algoritmos respecto del marco legal y de derechos.
Con la implantación de estas medidas, España se situaría a la vanguardia en la defensa de los derechos del consumidor en la era digital, alineándose con las mejores prácticas internacionales, pero avanzando un paso más allá allí donde la regulación europea aún no alcanza plenamente. Se daría así pleno efecto al mandato constitucional del artículo 51 CE, actualizándolo a los desafíos tecnológicos presentes, y se atenderían las legítimas reivindicaciones de transparencia y equidad formuladas por la sociedad civil. Un Registro Estatal de Algoritmos en el ámbito de consumo incrementará la confianza de los consumidores en el mercado digital, al saber que existen controles y que no están a merced de «cajas negras» inescrutables. Igualmente, fomentará una competencia más leal entre empresas, evitando ventajas competitivas basadas en el secretismo algorítmico y permitiendo competir en calidad, precio e innovación de cara al usuario. El registro servirá también como herramienta de prevención de fraudes y abusos, disuadiendo a las empresas de incurrir en prácticas opacas o contrarias a la ley por el mero hecho de saber que deberán declararlas y podrían ser descubiertas. Asimismo, dotará a las autoridades de nuevos instrumentos para la vigilancia proactiva del mercado: al contar con información centralizada de los algoritmos en uso, podrán detectar patrones anómalos o riesgos sistémicos (por ejemplo, varios operadores usando algoritmos similares que encarezcan precios en paralelo) y actuar antes de que el daño se generalice. En suma, la iniciativa busca garantizar que la innovación tecnológica en el mercado ocurra de la mano de la transparencia y la responsabilidad, situando siempre la protección del consumidor en el centro de la transformación digital.
Por último, desde el punto de vista del impulso legislativo, esta propuesta de Registro Estatal de Algoritmos se apoya no solo en una necesidad política y social ampliamente reconocida cual es la de garantizar la equidad en el mercado digital, sino también en un sólido fundamento jurídico: el principio jurisprudencial expreso sentado por el Tribunal Supremo en la Sentencia 1119/2025, que elevó la transparencia algorítmica a principio constitucional operativo. Al crear el Registro, España cumpliría con la letra y espíritu de los artículos 51 y 105 CE, y se alinearía con la estrategia europea de una transformación digital centrada en el ser humano. De hecho, sería pionera en la UE, adelantándose a posibles desarrollos comunitarios futuros e inspirándolos. Como representantes de la soberanía popular, corresponderá a las Cortes Generales impulsar estas reformas legales para hacer efectiva la iniciativa, asegurando un mercado digital respetuoso con la dignidad y los derechos de las personas.
Conclusiones
Nos hallamos en un punto de inflexión en el que resulta imperativo adaptar el Derecho del consumo a la era de la inteligencia artificial. Los algoritmos han pasado de ser herramientas neutras de eficiencia a actores con un poder real para beneficiar o perjudicar a millones de consumidores. Frente a esta realidad, la transparencia algorítmica se erige como condición indispensable para salvaguardar los derechos del consumidor y preservar la confianza en el mercado digital.
La creación de un Registro Estatal de Algoritmos en España aparece, tras este análisis, como una medida no solo conveniente sino esencial. Permitiría abordar de forma transversal los riesgos detectados al dotar de visibilidad las decisiones automatizadas que hoy operan en la oscuridad, posibilitando su escrutinio independiente. Al mismo tiempo facilitaría la detección y corrección de sesgos discriminatorios reforzando el cumplimiento de los deberes de información y lealtad en la contratación. Y, finalmente, brindaría nuevas herramientas a las autoridades y a los propios consumidores para hacer valer sus derechos. En definitiva, dotaría de eficacia real a principios que de otro modo corren el peligro de quedar meramente enunciados.
El Registro de Algoritmos no es una panacea, pero sí un paso firme hacia un ecosistema digital más transparente, justo y seguro para el consumidor.
El Registro de Algoritmos no es una panacea, pero sí un paso firme hacia un ecosistema digital más transparente, justo y seguro para el consumidor. Debe complementarse con otras acciones: educación digital de los usuarios, fortalecimiento de las asociaciones de consumidores, cooperación interadministrativa (entre agencias de consumo, protección de datos, competencia y la AESIA), y una posible habilitación de acciones colectivas específicas en caso de daños algorítmicos difusos. La experiencia comparada muestra que la combinación de prevención ex ante (mediante transparencia y controles) y remedios ex post (mediante litigios colectivos y sanciones ejemplares) ofrece la mayor protección. España cuenta ahora con el conocimiento y los medios para desplegar ese abanico de medidas.
Desde el punto de vista del legislador, impulsar esta iniciativa implicaría dar cumplimiento a mandatos constitucionales y europeos, llenar vacíos normativos antes de que las brechas de protección se agranden, y liderar en el entorno europeo la garantía de la transparencia algorítmica y la ética digital en las relaciones de consumo. Además, enviaría una señal clara al mercado al asentar que la innovación tecnológica debe ir de la mano del respeto a los derechos. Lejos de ahuyentar la innovación, la regulación inteligente puede generar confianza y seguridad jurídica, lo que redunda en un entorno más propicio para un desarrollo sostenible de la economía digital.
En conclusión, asegurar que la economía digital evolucione sin menoscabo de los derechos de los consumidores es un objetivo ineludible en el Estado Social y Democrático de Derecho. La opacidad algorítmica no puede seguir siendo la regla silenciosa en nuestras transacciones cotidianas. Como se ha argumentado, existen bases jurídicas sólidas, experiencias previas y propuestas concretas para implementar un Registro Estatal de Algoritmos que haga efectivas la transparencia y la rendición de cuentas en este ámbito. Se trata, en definitiva, de actualizar nuestras herramientas legales a los desafíos del siglo XXI, poniendo la tecnología al servicio de las personas, y no al revés. España tiene la oportunidad de convertirse en referente en esta materia, afirmando su compromiso con un consumo justo, transparente y centrado en el ser humano, tal y como promulgan los principios constitucionales y la estrategia digital europea.
El impulso decidido de academia, sociedad civil, colegios profesionales y poderes públicos hacia esta dirección podrá garantizar que los beneficios de la inteligencia artificial se cosechen sin dejar atrás la dignidad y los derechos de los consumidores, logrando un entorno digital verdaderamente confiable y equitativo.
