PRIVACIDADMMXXVI

Herramientas de IA que no entrenan con tus prompts.
Qué significa eso y qué no.

Entrenar con los prompts de los usuarios ha sido el modelo de negocio por defecto de la IA de consumo desde la primera generación de chatbots. La economía es obvia: cada conversación es una anotación gratis. El problema es igualmente obvio para cualquiera que trabaje con material confidencial. Esta página recoge dónde están las principales herramientas hoy, cómo está configurada Namulai y qué cubre realmente la frase no-entrenamiento en la práctica.

Prueba Namulai gratis30 días de prueba gratis · luego 19,80 €/mes · cancela cuando quieras
01 / EL VALOR POR DEFECTO

Por qué entrenar con datos de usuario se volvió la norma

Los modelos fundacionales mejoran cuando ven más datos, y las conversaciones de usuario son una fuente inusualmente rica: reflejan tareas reales, dominios reales y los casos límite que un set de entrenamiento curado rara vez captura. Para el proveedor, recolectar estos datos es casi gratis. Para el usuario, el coste es opaco, porque el prompt ya se ha enviado antes de que cualquier diálogo de consentimiento se lea de verdad.

La consecuencia práctica es que cualquier cosa pegada en una capa de consumo por defecto de un chatbot importante, código fuente, correos de cliente, borradores de contrato, ha tenido históricamente una probabilidad no nula de influir en pesos de modelo futuros. Si ese material puede llegar a extraerse del modelo resultante es una pregunta de investigación distinta y aún no resuelta.

02 / EL PANORAMA ACTUAL

Dónde están las principales herramientas de IA

El panorama ha mejorado, de forma desigual. OpenAI cambió el valor por defecto de ChatGPT en 2024 para que las conversaciones de consumo no se usen para entrenamiento salvo que el usuario opte por ello, con una postura distinta en ChatGPT Team y Enterprise donde el entrenamiento está desactivado por defecto y se compromete contractualmente. Anthropic ha declarado que Claude no entrena con conversaciones de cliente API ni de producto de pago, con excepciones más estrechas para revisión de seguridad.

Google Gemini, Meta AI y varios proveedores menores mantienen valores por defecto más permisivos en capas gratuitas. El resumen honesto es que el no-entrenamiento es ya alcanzable en la mayoría de los casos profesionales, pero requiere leer los términos específicos para la capa específica en la que estás, en lugar de asumir una respuesta de categoría.

03 / NUESTRA POLÍTICA

La política de Namulai sobre entrenamiento

Namulai no entrena ningún modelo con tus prompts ni con tus respuestas. No tenemos un pipeline de entrenamiento. El producto es una interfaz y un enrutador de inferencia, no un laboratorio de modelos.

Por debajo, la inferencia se enruta a través de OpenRouter, que tiene la conservación a nivel de proveedor desactivada por defecto en los proveedores que la soportan. Eso significa que el proveedor upstream no registra el prompt con fines de entrenamiento, sujeto a la conservación operativa estándar a corto plazo necesaria para detectar abuso, que se suele medir en días en vez de meses. Persistimos tu historial de conversación en nuestra propia base de datos para que puedas volver a leerlo, y lo eliminamos cuando lo pides. Ese es el flujo de datos completo.

04 / PRECISIÓN

Qué cubre y qué no cubre el no-entrenamiento

El no-entrenamiento es un compromiso prospectivo sobre versiones futuras del modelo. No deshace retroactivamente el corpus de preentrenamiento sobre el que se construyeron los modelos subyacentes, ensamblado por los proveedores originales a partir de datos web públicos y fuentes licenciadas, mucho antes de que existiera tu cuenta.

Tampoco significa que tu prompt sea invisible durante la propia solicitud. El modelo tiene que ver tu prompt para responderlo, en el mismo sentido en que un buscador tiene que ver tu consulta. Ese uso en contexto termina cuando se devuelve la respuesta. La distinción entre exposición transitoria en contexto y absorción permanente en la próxima tirada de entrenamiento es la que importa, y es a la que nos comprometemos.

05 / VERIFICACIÓN

Cómo verificar la postura sobre entrenamiento de una herramienta

Las páginas de marketing no son contratos. Las afirmaciones verificables viven en tres sitios: las condiciones del servicio, el acuerdo de tratamiento de datos y la lista de subencargados publicada. Léelas en ese orden.

Para cualquier herramienta que estés considerando, busca una cláusula explícita y específica que diga que el contenido del cliente no se usa para entrenar modelos, con la capa en la que estás nombrada. Busca una ventana de conservación expresada en días o meses en vez de indefinidamente. Busca una lista publicada de subencargados, porque una afirmación de no-entrenamiento solo es tan fuerte como el eslabón más débil de la cadena. Si alguno de estos falta, el supuesto seguro es que la herramienta no está configurada como insinúa la home, y debes tratarla en consecuencia.

06 / FAQ

Entrenamiento y conservación, preguntas frecuentes

¿Usa Namulai mis conversaciones para entrenar IA?

No. No operamos un pipeline de entrenamiento y no pasamos contenido de conversación a ningún tercero con fines de entrenamiento. Tus prompts se usan para generar la respuesta del modelo en tiempo real, se persisten en nuestra base de datos para que puedas volver a la conversación, y se eliminan cuando borras la conversación o tu cuenta.

¿Y OpenRouter y los proveedores de modelo subyacentes?

Namulai enruta la inferencia a través de OpenRouter con la conservación a nivel de proveedor desactivada por defecto. Los proveedores subyacentes ven el prompt durante la solicitud y aplican una conservación operativa corta, normalmente medida en días, para detección de abuso. No conservan el contenido para entrenamiento bajo la configuración que usamos.

¿Se entrenaron los propios modelos sobre datos sin consentimiento?

Los modelos fundacionales son anteriores a Namulai y los preentrenaron sus proveedores originales sobre grandes corpus de texto web público y material licenciado. No tenemos control sobre ese preentrenamiento histórico y no afirmaríamos lo contrario. Nuestro compromiso aplica a lo que sucede con tus datos desde el momento en que entran en Namulai.

¿Cómo puedo comprobar que no se conserva nada?

Puedes leer nuestras condiciones y la política de datos de OpenRouter, que describen la configuración en términos concretos. También puedes eliminar una conversación o tu cuenta entera desde ajustes y observar que los registros se purgan de MongoDB en treinta días mediante índices TTL. Estamos encantados de explicar la arquitectura a un cliente potencial bajo petición.

Usa modelos punteros para trabajo real, sin alimentar la próxima tirada de entrenamiento.

Prueba Namulai gratis

30 días de prueba gratis · luego 19,80 €/mes · cancela cuando quieras