Rafael Plaza, country manager de Teradata Perú, plantea que el país está en un punto de inflexión: mientras la conversación sobre inteligencia artificial (IA) se acelera en empresas y universidades, el marco público que debería guiar su uso responsable ha tenido poco oxígeno por la rotación constante de equipos políticos. Eso, dice, ha restado credibilidad y continuidad a los lineamientos.
Un marco que ya existe —pero sin un “manual” operativo y con el plazo de adecuación en marcha— deja a muchas organizaciones en una zona incómoda: quieren avanzar, pero temen invertir en controles que luego no coincidan con lo que pida el regulador. La discusión se centra, entonces, en cómo traducir la regulación a procesos verificables para poder sostenerlos ante la ley, un cliente o el directorio.
El riesgo de ese desajuste no es solo regulatorio. Los modelos pueden volverse cada vez más sofisticados, pero si la empresa no puede explicar decisiones ni demostrar controles, se expone a fricciones reputacionales y a contingencias legales.
“No está claro dónde está la línea entre usar la inteligencia artificial como un elemento transformador y usarla de una manera que termine llevando a hacer trampa. Por eso es importante que, a nivel país, tengamos lineamientos que guíen a todas las industrias de la misma forma, incluidas las pequeñas y medianas empresas, y que la sociedad también esté al tanto”, resalta Plaza a Sectoriales Tech.
Lo que deberían hacer hoy las empresas
Plaza propone abordar la IA como gestión de riesgo y avanzar con un conjunto de acciones ejecutables desde ahora, incluso si el regulador aún no ofrece un paso a paso.
- Nombrar a un champion interno de IA responsable. Esa persona debe tener mandato para ordenar criterios, exigir evidencia y frenar despliegues cuando no se cumplan mínimos.
- Elegir un perfil que entienda el negocio y sepa articular. El country manager de Teradata Perú sostiene que suele ser alguien curioso, con capacidad de comunicación y con entendimiento del proceso comercial y de la cultura empresarial, no necesariamente un especialista técnico.
- Capacitar con foco en implementación. Se trata de entrenar para construir ese rol interno y alinear a los equipos sobre qué está permitido, qué no, y cómo operar controles.
- Incorporar explicabilidad desde el diseño. Si desde el arranque se define qué sesgos se quiere aminorar y cómo se explicará el resultado del modelo ante un regulador o la sociedad, implementarlo es más viable y menos costoso
- Asegurar supervisión humana en decisiones sensibles. El ejecutivo insiste en que debe mantenerse criterio humano para aprobar, corregir o detener decisiones automatizadas cuando el impacto lo amerita.
Plaza subraya que esta agenda ya no es exclusiva de las grandes compañías intensivas en datos, como aquellas que operan en el sector banca, salud y retail. A medida que la IA se vuelve más accesible, su uso se expande a más industrias y también a entornos donde las reglas internas suelen ser menos claras.
La presión también recae sobre las startups que, por ejemplo, trabajan con drones y robots y que, para acceder a financiamiento, deberán demostrar resguardos en aspectos como privacidad y sesgos como parte del proceso de evaluación. En otras palabras, más allá de la fiscalización, la capacidad de mostrar prácticas responsables empieza a convertirse en un requisito para cerrar acuerdos, atraer inversión y sostener crecimiento.
Para el especialista, el punto de partida es establecer un estándar interno de uso responsable. Esto implica definir desde el inicio cómo se valida cada modelo, quién asume la responsabilidad y cómo se corrigen desviaciones. Con ese marco, la empresa puede escalar sin reabrir la misma discusión en cada despliegue. Además, esa disciplina termina funcionando como una señal de confianza y reputación frente a clientes, socios y el mercado.