El 22 de octubre de 2025, la Cámara de Senadores de Bolivia aprobó el Proyecto de Ley N.o 178/2024-2025 de Promoción, Gestión y Uso de la Inteligencia Artificial. Con 31 artículos y dos disposiciones transitorias, el texto marca el primer intento integral del país por regular el desarrollo, la implementación y la supervisión de sistemas de IA dentro del territorio nacional. El proyecto fue impulsado por la senadora Claudia Eguez, del departamento de Beni (alianza Creemos), y actualmente se encuentra en revisión en la Cámara de Diputados.
Para cualquier empresa que opere en Bolivia y ya utilice herramientas de inteligencia artificial, desde un chatbot de WhatsApp hasta un sistema de scoring crediticio, este proyecto de ley tiene implicaciones directas. No se trata de un documento abstracto reservado a juristas: establece prohibiciones concretas, plazos de cumplimiento, un régimen sancionatorio con multas y la creación de una autoridad reguladora especializada. Este artículo analiza cada componente relevante para que puedas evaluar el impacto en tu negocio y empezar a prepararte desde ahora.
Contexto: por qué Bolivia regula la IA
Bolivia no legisla en el vacío. La ola regulatoria sobre inteligencia artificial es un fenómeno global que se aceleró dramáticamente entre 2023 y 2026, y el país responde tanto a presiones internacionales como a necesidades internas muy concretas.
La presión internacional: del EU AI Act al Marco Legal brasileño
La Unión Europea marcó el estándar global con el AI Act, aprobado en marzo de 2024 y con aplicación progresiva desde agosto de ese año. La legislación europea clasifica los sistemas de IA en cuatro niveles de riesgo (inaceptable, alto, limitado y mínimo) y establece obligaciones diferenciadas para cada categoría. Su impacto ha sido extraterritorial: cualquier empresa que venda productos o servicios con IA a ciudadanos europeos debe cumplir, lo que empujó a otras regiones a crear marcos propios para evitar quedar subordinadas a regulaciones extranjeras.
En América Latina, Brasil lideró con el Proyecto de Ley 2338/2023, conocido como Marco Legal da Inteligência Artificial, aprobado por el Senado en diciembre de 2024 y actualmente en trámite en la Cámara de Diputados. El modelo brasileño sigue una estructura de clasificación por riesgo similar a la europea, exige transparencia algorítmica y explicabilidad, y establece responsabilidades claras para desarrolladores y operadores de sistemas de IA. Chile presentó en mayo de 2024 un proyecto que clasifica los sistemas en cuatro categorías de riesgo (inaceptable, alto, moderado y sin riesgo evidente), con sanciones a cargo de la futura Agencia de Protección de Datos Personales. Colombia, por su parte, radicó un proyecto de 10 capítulos y 35 artículos liderado por MinCiencias y MinTIC, con un enfoque regulatorio basado en riesgos y un énfasis particular en justicia social y reducción de desigualdades.
Regulación de IA en América Latina: estado actual
- Brasil: PL 2338/2023 aprobado en Senado (dic. 2024), en Cámara de Diputados. Clasificación por riesgo, transparencia algorítmica, multas de hasta 2% del ingreso bruto.
- Chile: Proyecto presentado mayo 2024. Cuatro niveles de riesgo, Consejo Asesor Técnico, sanciones por la Agencia de Protección de Datos.
- Colombia: Proyecto de 35 artículos radicado por MinCiencias. Enfoque en riesgos y justicia social. Reconocida por UNESCO en la Red Global de Supervisión de IA.
- Argentina: 63 iniciativas legislativas vinculadas a tecnologías digitales presentadas entre enero de 2025 y febrero de 2026, sin ley integral aprobada.
- Bolivia: PL 178/2024-2025 aprobado en Senado (oct. 2025), en Cámara de Diputados. 31 artículos, crea ARIA, 12 principios plurinacionales, 7 prohibiciones.
El contexto boliviano: agenda digital y brechas pendientes
Internamente, Bolivia enfrenta una paradoja. Por un lado, la adopción de herramientas de IA por parte de empresas y ciudadanos crece aceleradamente: chatbots en WhatsApp, sistemas de generación de contenido, herramientas de análisis predictivo en el sector financiero. Por otro lado, el país ocupa uno de los últimos lugares en el Índice Latinoamericano de Inteligencia Artificial (ILIA 2025) según la CEPAL, con déficits en infraestructura, talento especializado y marco normativo.
La Constitución Política del Estado Plurinacional autoriza explícitamente al Estado a promover la investigación científica y tecnológica, extiende la soberanía sobre recursos estratégicos (incluidos datos) y legitima la innovación dentro de la economía comunitaria plural. Es sobre esta base constitucional que el PL 178/2024-2025 se construye, incorporando además principios propios del marco plurinacional boliviano que lo diferencian de cualquier otra legislación de IA en la región.
El texto final del proyecto se elaboró entre abril y septiembre de 2025 en talleres técnicos donde participaron, además de Agetic (la Agencia de Gobierno Electrónico y Tecnologías de la Información y Comunicación), universidades, especialistas en tecnología y organizaciones de la sociedad civil. Es decir, no fue una iniciativa aislada de un legislador: tiene respaldo técnico multisectorial.
Qué dice el Proyecto de Ley 178/2024-2025
El proyecto lleva por nombre completo "Ley de Promoción, Gestión y Uso de la Inteligencia Artificial" y contiene 31 artículos organizados en capítulos temáticos, más dos disposiciones transitorias. Su alcance es expansivo: se aplica a toda persona natural o jurídica, pública o privada, que desarrolle, provea, utilice o implemente sistemas de IA en Bolivia o que genere efectos en territorio boliviano. Esto incluye algoritmos autónomos de predicción, generación de contenido o toma de decisiones.
Los 12 principios plurinacionales
A diferencia de las legislaciones de Brasil, Chile o la Unión Europea, que fundamentan sus principios en marcos liberales de derechos individuales, el PL boliviano ancla su regulación en 12 principios con identidad plurinacional. Este enfoque es deliberado y responde a la estructura constitucional del Estado:
Los 12 principios rectores del PL 178/2024-2025
- Beneficio colectivo sobre el lucro privado: la IA debe servir al bien común antes que a intereses comerciales particulares.
- Transparencia algorítmica total: los usuarios tienen derecho a entender cómo funcionan los sistemas de IA que los afectan.
- Explicabilidad comprensible para pueblos indígenas: la información sobre IA debe ser accesible en términos culturales y lingüísticos.
- Ética intercultural: las decisiones algorítmicas deben respetar la diversidad cultural del Estado Plurinacional.
- No discriminación: prohibición expresa de discriminación por etnia, género, condición rural o edad.
- Ciberseguridad robusta: estándares técnicos de protección para todos los sistemas de IA.
- Protección de datos personales: tratamiento responsable de la información de los ciudadanos.
- Innovación sostenible alineada con el Vivir Bien: la tecnología como herramienta de desarrollo armonioso.
- Soberanía tecnológica explícita: priorización del desarrollo tecnológico nacional.
- Dignidad humana inviolable: ningún sistema de IA puede vulnerar la dignidad de las personas.
- Participación originaria de naciones y pueblos indígenas: inclusión activa en la gobernanza de la IA.
- Armonía con la Pachamama: consideración del impacto ambiental de los sistemas de IA.
Para una empresa, estos principios no son decorativos. Son los criterios que la autoridad reguladora utilizará al evaluar si un sistema de IA cumple con la ley. Si tu chatbot de atención al cliente discrimina sistemáticamente a usuarios rurales porque fue entrenado solo con datos urbanos, eso podría constituir una violación del principio de no discriminación. Si tu sistema de IA no ofrece explicaciones comprensibles sobre sus decisiones, incumple el principio de transparencia algorítmica.
Las 7 prácticas expresamente prohibidas
El proyecto establece de forma taxativa siete prácticas que quedan prohibidas sin excepción. Estas prohibiciones son el corazón más restrictivo de la ley y aplican desde el momento de su promulgación, sin períodos de transición:
1. Manipulación subliminal. Queda prohibido el uso de técnicas subliminales que trasciendan la conciencia de una persona o formas deliberadamente manipuladoras o engañosas con el objetivo de alterar sustancialmente la toma de decisiones. Esto abarca desde publicidad con IA que explota sesgos cognitivos hasta interfaces diseñadas para engañar al usuario (dark patterns potenciados por IA).
2. Reconocimiento facial masivo sin orden judicial. Se prohíbe la recolección y el uso masivo de datos biométricos faciales sin autorización judicial mediante habeas data. Esta prohibición afecta tanto a entidades públicas como privadas.
3. Explotación de vulnerabilidades. No se puede utilizar IA para explotar vulnerabilidades de una persona o grupo derivadas de su edad, discapacidad o situación social o económica específica. Un sistema de crédito que deliberadamente se aproveche de la falta de educación financiera de un sector vulnerable caería bajo esta prohibición.
4. Clasificación social por comportamiento. Se prohíbe usar IA para evaluar o clasificar personas durante un período determinado basándose en su comportamiento social o características personales conocidas. Esto es una referencia directa al "social scoring" al estilo del sistema de crédito social chino.
5. Perfilamiento basado exclusivamente en personalidad. No se pueden hacer evaluaciones de personas ni desarrollar perfiles basados únicamente en características de personalidad inferidas por IA.
6. Discriminación por comportamiento o fenotipo. Queda prohibido usar IA para clasificar o discriminar a personas en función de su comportamiento observable o sus características fenotípicas (raza, rasgos físicos).
7. Expansión indiscriminada de bases de datos faciales. Se prohíbe la ampliación de bases de datos de reconocimiento facial mediante la recolección de imágenes obtenidas de internet o de sistemas de videovigilancia. Cualquier base de datos biométrica debe adquirirse legalmente y solo puede usarse por razones de seguridad nacional u orden público.
Las siete prohibiciones del PL 178/2024-2025 se alinean con las prácticas de riesgo inaceptable del AI Act europeo, pero incorporan matices propios del contexto boliviano, como la protección explícita contra la discriminación fenotípica y la restricción de bases de datos biométricas obtenidas de internet.
Garantías ciudadanas y derechos de los usuarios
El proyecto reconoce un conjunto de derechos específicos para los ciudadanos que interactúan con sistemas de IA. Estos derechos generan obligaciones directas para las empresas:
Derecho a no ser objeto de decisiones exclusivamente automatizadas cuando dichas decisiones afecten derechos subjetivos. Si tu empresa usa un algoritmo para aprobar o rechazar solicitudes de crédito, el cliente tiene derecho a que un humano revise la decisión.
Derecho a información clara y comprensible sobre el uso de IA en servicios públicos o privados. Si un chatbot atiende a tus clientes, debes informar explícitamente que están interactuando con una máquina, no con una persona.
Derecho a auditorías independientes de sesgos algorítmicos. Los usuarios pueden exigir que se verifique si un sistema de IA los está discriminando.
Derecho al olvido digital y a la reparación integral de daños causados por sistemas de IA.
Régimen sancionatorio
El proyecto establece un régimen de sanciones administrativas progresivas, administrado por Agetic como autoridad supervisora. Las sanciones incluyen:
Multas de hasta 10 salarios mínimos nacionales. Considerando el salario mínimo vigente en Bolivia de Bs 2.500, esto representa un tope de Bs 25.000 (aproximadamente USD 3.600). Si bien estas cifras pueden parecer modestas comparadas con las multas del AI Act europeo o la LGPD brasileña, representan un impacto significativo para PyMEs bolivianas.
Suspensión de operaciones del sistema de IA infractor.
Reparación integral de daños a las víctimas del uso indebido de IA.
Remisión al Ministerio Público cuando las infracciones configuren delitos penales.
El proyecto determina responsabilidad legal para desarrolladores y usuarios cuyos sistemas causen daño por negligencia o uso indebido. Esto significa que si contratas un software de IA de terceros y no supervisas su funcionamiento, tu empresa puede ser responsable de los daños que genere.
ARIA: la autoridad de regulación de IA
Una de las disposiciones más significativas del proyecto es la creación de la Autoridad de Regulación de la Inteligencia Artificial (ARIA), concebida como un ente descentralizado con autonomía funcional. Esta es la institución que marcará las reglas del juego para las empresas que usen IA en Bolivia.
Mandato y atribuciones de ARIA
Según el texto aprobado en el Senado, ARIA tendría las siguientes competencias:
Regular estándares éticos y técnicos. ARIA definirá los criterios que deben cumplir los sistemas de IA para operar legalmente en Bolivia. Esto incluye estándares de transparencia, seguridad, protección de datos y no discriminación.
Certificar sistemas de IA. Las empresas podrían necesitar una certificación de ARIA antes de desplegar ciertos sistemas de IA, especialmente los de alto riesgo. Los detalles del proceso de certificación se definirían en la reglamentación posterior.
Supervisar el cumplimiento. ARIA tendrá capacidad de inspeccionar y auditar los sistemas de IA en operación, tanto en el sector público como privado.
Imponer sanciones administrativas progresivas. Desde amonestaciones y multas hasta la suspensión de operaciones y la obligación de reparar daños.
El rol de Agetic: supervisión y estrategia nacional
Paralelamente a ARIA, la Agencia de Gobierno Electrónico y Tecnologías de la Información y Comunicación (Agetic) asume un rol central. Según las disposiciones transitorias del proyecto, Agetic tiene dos mandatos con plazos específicos a partir de la promulgación de la ley:
Plazos de implementación para Agetic
- 90 días: elaborar el reglamento de aplicación de la ley.
- 180 días: desarrollar las directrices técnicas sectoriales y la Estrategia Nacional para el Uso de la Inteligencia Artificial.
Agetic también será responsable de registrar bases de datos y algoritmos, emitir directrices técnicas sectoriales (salud, justicia, elecciones) y monitorear los impactos de la IA en la sociedad boliviana. En la práctica, Agetic funcionará como el brazo operativo y técnico mientras ARIA actuará como el ente regulador con capacidad sancionatoria.
Debilidades señaladas por analistas
El análisis constitucional publicado en febrero de 2026 por expertos en derecho tecnológico señala preocupaciones sobre la concentración de poderes cuasi-judiciales en ARIA bajo el Poder Ejecutivo, sin salvaguardas claras como control parlamentario, revisión judicial independiente o pluralidad intercultural mediante cuotas para organizaciones indígenas. Existe el riesgo de discrecionalidad política en los procesos de certificación y sanción.
Otra crítica recurrente es la ausencia de sandboxes regulatorios en el texto aprobado por el Senado. Sin mecanismos de experimentación controlada, las empresas y startups bolivianas carecen de un espacio seguro para probar innovaciones de IA bajo supervisión regulatoria sin arriesgarse a sanciones. Los expertos han propuesto la creación de pilotos nacionales en áreas como justicia rural en Oruro, agricultura en el Chaco y salud en Tiwanaku, con exoneraciones tributarias para incentivar la participación, aunque estas propuestas aún no se han incorporado al proyecto de ley.
Protección de datos personales: la pieza faltante
Un aspecto crítico del PL 178/2024-2025 es que reconoce la necesidad de una Ley Especial de Protección de Datos Personales, que deberá aprobarse dentro de los 180 días posteriores a la promulgación. Bolivia es uno de los pocos países de la región que aún no cuenta con una ley integral de protección de datos al nivel de la LGPD brasileña o la Ley 1581 colombiana. Esto crea una laguna: la ley de IA exige protección de datos, pero el marco legal de datos aún no existe formalmente.
Para las empresas, esto genera incertidumbre. Los requisitos específicos sobre qué datos pueden o no usarse para entrenamiento de IA, cómo deben almacenarse, durante cuánto tiempo y bajo qué condiciones pueden transferirse, se definirían en esa ley complementaria. Mientras tanto, los principios generales del PL 178 (transparencia, protección de datos, consentimiento) operan como marco orientador.
Obligaciones concretas para empresas
Más allá de las prohibiciones y los principios, el proyecto genera obligaciones específicas que toda empresa que use IA en Bolivia debe contemplar. Estas obligaciones aplican tanto a empresas que desarrollan sus propios sistemas como a aquellas que utilizan herramientas de IA de terceros (ChatGPT, herramientas de automatización, CRMs con IA, chatbots, sistemas de análisis predictivo).
Transparencia y notificación
Si tu empresa utiliza IA para interactuar con clientes, tomar decisiones que los afecten o procesar sus datos, debes:
Informar explícitamente que están interactuando con IA. Cuando un cliente chatea con tu bot de WhatsApp o recibe una respuesta automatizada, debe saber que habla con una máquina. Esto aplica a chatbots, asistentes virtuales, respuestas automáticas de email generadas por IA y cualquier interfaz donde el usuario podría asumir que hay un humano al otro lado.
Proporcionar información clara y comprensible sobre cómo funciona el sistema. No se trata de publicar el código fuente, sino de explicar en lenguaje accesible qué datos usa el sistema, qué tipo de decisiones toma y cuáles son sus limitaciones.
Explicar las decisiones algorítmicas que afecten derechos. Si un algoritmo rechaza una solicitud de servicio, debe haber una explicación del motivo comprensible para el usuario.
Monitoreo y supervisión de sistemas de IA de alto riesgo
Los proveedores de sistemas de IA de alto riesgo tienen obligaciones reforzadas. Según el proyecto, deben establecer y documentar un sistema de monitoreo que recopile y analice datos a lo largo de la vida útil del producto. Este sistema debe permitir:
La detección de fallas o sesgos en los algoritmos. La evaluación de la interacción de la IA con otros sistemas inteligentes. La prevención de daños sistémicos. La generación de registros auditables.
Si tu empresa no desarrolla IA pero la utiliza (por ejemplo, integras un modelo de lenguaje en tu servicio al cliente), la responsabilidad no desaparece. El proyecto establece responsabilidad para desarrolladores y usuarios cuyos sistemas causen daño. Eso significa que debes supervisar activamente cómo funciona la herramienta de IA que contrataste.
Revisión humana de decisiones automatizadas
Cualquier decisión basada exclusivamente en procesamiento automatizado que afecte derechos subjetivos de una persona requiere la posibilidad de revisión humana. En la práctica, esto implica que:
Escenarios que requieren revisión humana
- Aprobación o rechazo de créditos o seguros por algoritmos de scoring.
- Selección o descarte de candidatos en procesos de contratación con IA.
- Denegación de servicios basada en perfilamiento automatizado.
- Decisiones sobre precios dinámicos que afecten a consumidores vulnerables.
- Evaluaciones de desempeño laboral realizadas por sistemas automatizados.
- Clasificación de riesgo de clientes sin intervención humana.
Bolivia frente a la regulación regional: qué se exige en otros países
Para contextualizar las obligaciones del PL boliviano, es útil comparar con lo que exigen otras legislaciones de la región:
Brasil (PL 2338/2023): exige transparencia algorítmica, explicabilidad de decisiones automatizadas, evaluaciones de impacto para sistemas de alto riesgo y multas de hasta el 2% del ingreso bruto de la empresa (con tope de R$50 millones por infracción). El enfoque brasileño es significativamente más punitivo en términos económicos.
Chile: clasifica los sistemas en cuatro niveles de riesgo siguiendo el modelo europeo. Los de riesgo inaceptable están prohibidos (manipulación subliminal, categorización biométrica, scoring social). Los de alto riesgo requieren cumplimiento reforzado. Un Consejo Asesor Técnico define las clasificaciones.
Colombia: su proyecto de 35 artículos enfatiza la justicia social y designa a MinCiencias como Autoridad Nacional para la IA. El enfoque regulatorio se basa en cuatro niveles de riesgo (prohibidos, altos, limitados y bajos) con un acento particular en la reducción de desigualdades.
El PL boliviano comparte con todos estos el principio de transparencia y la prohibición de prácticas de riesgo inaceptable. Se diferencia en dos aspectos: las multas son significativamente menores (hasta 10 salarios mínimos frente al 2% del ingreso bruto en Brasil), y la incorporación de principios plurinacionales como la armonía con la Pachamama y la participación de naciones indígenas no tiene precedente en ninguna otra legislación de IA del mundo.
El Proyecto de Ley 178/2024-2025 posiciona a Bolivia como uno de los primeros países de la región con un marco integral de regulación de IA, pero con multas significativamente menores que sus vecinos. La verdadera fuerza de la ley radica en las prohibiciones absolutas y en la obligación de reparación integral de daños.
Cómo preparar tu empresa desde ahora
El proyecto aún se encuentra en la Cámara de Diputados. Si se aprueba allí, pasará al Ejecutivo para su promulgación. A partir de la promulgación, Agetic tiene 90 días para desarrollar el reglamento y 180 días para las directrices técnicas. Esto significa que, en el mejor escenario, las obligaciones reglamentarias completas estarían vigentes a finales de 2026 o principios de 2027. Pero las prohibiciones de prácticas inaceptables y los principios rectores aplican desde el día uno de la promulgación.
No esperes a que la ley esté promulgada para prepararte. Las empresas que se anticipan no solo evitan sanciones: construyen confianza con sus clientes, reducen riesgos legales y se posicionan como referentes en un mercado donde la mayoría de los competidores reaccionarán tarde.
Paso 1: Audita todos los sistemas de IA que usas
La primera acción es hacer un inventario exhaustivo. Muchas empresas usan IA sin ser plenamente conscientes de ello. Revisa cada herramienta de software que tu empresa utiliza y pregunta: ¿este sistema usa inteligencia artificial, aprendizaje automático o algoritmos de toma de decisiones automatizadas?
Herramientas comunes con IA que probablemente usas
- Chatbots y asistentes virtuales: WhatsApp Business con respuestas automáticas, Tidio, Manychat, chatbots en tu sitio web.
- CRM con IA: HubSpot, Salesforce, Zoho con funciones de lead scoring o predicción.
- Email marketing: Mailchimp, ActiveCampaign con segmentación predictiva y envío optimizado por IA.
- Generación de contenido: ChatGPT, Claude, Gemini, Copilot para escribir textos, respuestas o documentos.
- Análisis de datos: Google Analytics con insights automatizados, herramientas de BI con predicciones.
- Contabilidad y finanzas: software contable con clasificación automática de transacciones.
- Recursos humanos: plataformas de reclutamiento con filtrado automatizado de CVs.
- Publicidad digital: Google Ads y Meta Ads (ambos usan IA extensivamente para segmentación y optimización).
Para cada herramienta identificada, documenta: qué datos procesa, qué decisiones toma o influye, quiénes son los usuarios afectados y si existe supervisión humana.
Paso 2: Documenta los flujos de datos
Para cada sistema de IA que identificaste, traza el recorrido de los datos. De dónde vienen, cómo se procesan, dónde se almacenan, con quién se comparten, durante cuánto tiempo se retienen. Este ejercicio no solo te prepara para la ley de IA: te servirá para cumplir con la futura Ley de Protección de Datos Personales que el PL 178 exige que se apruebe dentro de los 180 días.
Presta especial atención a los datos que se envían a servicios de terceros. Si usas ChatGPT a través de la API de OpenAI, los datos de tus clientes se procesan en servidores fuera de Bolivia. Si usas un CRM alojado en la nube, los datos están en servidores internacionales. Documenta estos flujos transfronterizos: la reglamentación podría imponer requisitos específicos.
Paso 3: Implementa notificaciones de IA
Empieza hoy. En toda interacción donde un cliente se comunique con un sistema de IA, agrega un aviso claro. Esto no requiere cambios legales complejos; es una buena práctica que además es la forma más visible de demostrar cumplimiento. Ejemplos concretos:
En tu chatbot de WhatsApp: un mensaje inicial que diga "Hola, soy el asistente virtual de [tu empresa]. Soy un sistema automatizado. Si prefieres hablar con una persona, escribe HUMANO en cualquier momento."
En tu sitio web: si tienes un widget de chat con IA, incluye un indicador visual y textual de que es un bot.
En correos generados por IA: agrega una nota al pie que indique que el contenido fue generado o asistido por inteligencia artificial.
Paso 4: Establece mecanismos de revisión humana
Para cada punto donde la IA toma o influye en decisiones que afectan a personas, establece un proceso claro de escalamiento a un humano. Define quién es responsable de revisar decisiones algorítmicas cuestionadas, cuánto tiempo tiene para responder y cómo se documenta la revisión. Esto no solo es un requisito legal emergente: es sentido común empresarial. Un cliente cuya solicitud fue rechazada por un algoritmo y que no tiene forma de apelar a un humano es un cliente perdido y un riesgo legal.
Paso 5: Revisa tus contratos con proveedores de IA
Si usas herramientas de IA de terceros, revisa los contratos y términos de servicio. Pregunta a tus proveedores: ¿cómo manejan los datos que procesan? ¿Dónde se almacenan? ¿Los usan para entrenar sus modelos? ¿Ofrecen reportes de auditoría? ¿Pueden proporcionar explicaciones de las decisiones de su IA? La responsabilidad es compartida entre desarrolladores y usuarios, así que la respuesta de tu proveedor es parte de tu estrategia de cumplimiento.
Paso 6: Capacita a tu equipo
Las personas que operan herramientas de IA en tu empresa deben entender las implicaciones legales de su uso. No necesitan ser abogados, pero deben saber qué no se puede hacer (las siete prohibiciones), qué información deben dar a los clientes (transparencia) y cuándo escalar a un supervisor (decisiones que afectan derechos). Una sesión de capacitación de dos horas puede ahorrar problemas legales de miles de dólares.
Paso 7: Prepara una política interna de uso de IA
Redacta un documento breve (no más de 3-4 páginas) que establezca las reglas de tu empresa para el uso de IA. Este documento debe cubrir: qué herramientas están autorizadas, qué datos pueden procesarse con IA, qué datos nunca deben ingresarse en herramientas de IA externas (información financiera sensible, datos de salud, datos de menores), quién aprueba la adopción de nuevas herramientas de IA y cómo se manejan los incidentes.
Lista de verificación: preparación para la ley de IA
- Inventario completo de herramientas de IA en uso.
- Documentación de flujos de datos para cada sistema de IA.
- Notificaciones de IA implementadas en todos los puntos de contacto con clientes.
- Mecanismos de revisión humana establecidos para decisiones automatizadas.
- Contratos con proveedores de IA revisados (manejo de datos, auditoría, explicabilidad).
- Equipo capacitado en las prohibiciones y obligaciones básicas.
- Política interna de uso de IA redactada y comunicada.
- Verificación de que ningún sistema en uso incurre en las 7 prácticas prohibidas.
- Plan de seguimiento del proyecto de ley en la Cámara de Diputados.
- Revisión trimestral de cumplimiento hasta la promulgación.
Una nota sobre el calendario legislativo
El proyecto fue remitido a la Cámara de Diputados tras su aprobación en el Senado en octubre de 2025. A la fecha de publicación de este artículo (junio de 2026), el proyecto se encuentra en fase de análisis. El proceso legislativo boliviano no tiene plazos estrictos para la revisión en la segunda cámara, lo que significa que la aprobación final podría ocurrir en el segundo semestre de 2026 o extenderse hacia 2027.
Sin embargo, la tendencia regional es clara: la regulación de la IA no es una cuestión de si va a ocurrir, sino de cuándo. Cada mes que pasa sin preparación es un mes de riesgo acumulado. Las empresas que construyen buenas prácticas ahora tendrán una ventaja competitiva significativa cuando la ley entre en vigor, mientras que las que esperen al último momento enfrentarán costos de cumplimiento más altos, plazos más apretados y un riesgo real de sanciones.
En Bemorex acompañamos a empresas en Oruro y toda Bolivia en la adopción responsable de tecnología. Si necesitas evaluar cómo impactará esta legislación a tu negocio, auditar tus sistemas de IA actuales o implementar las medidas de cumplimiento necesarias, nuestro equipo puede ayudarte a construir una estrategia tecnológica que sea innovadora y legalmente sólida desde el primer día.