Error: Conversación demasiado larga
Si visualizas el mensaje "Tu conversación es demasiado larga. Por favor, inicia una nueva conversación para continuar" o "El servicio de IA encontró un error. Por favor, inténtalo de nuevo" al enviar un mensaje, has alcanzado la longitud máxima de conversación que la IA puede procesar.
¿Qué ha pasado?
El tamaño combinado de tu historial de conversación, los archivos subidos y el mensaje actual ha excedido el límite de la ventana de contexto del modelo de IA. Este límite técnico es de 200,000 tokens (aproximadamente 500 páginas de texto u 800,000 caracteres).
Piénsalo como la "memoria de trabajo" de la IA: una vez que la conversación es demasiado larga, la IA ya no puede procesar toda la información a la vez.
¿Por qué ha sucedido esto?
Este error suele ocurrir cuando tienes:
Historial de conversación extenso
Las conversaciones con más de 100 mensajes, especialmente discusiones detalladas de ida y vuelta sobre temas complejos de cumplimiento, pueden acumular un contexto significativo.
Carga de archivos grandes
Los archivos consumen una gran parte del límite de contexto, particularmente:
Hojas de cálculo con múltiples pestañas: Los archivos Excel grandes con matrices de control extensas o requisitos detallados pueden dividirse en más de 100 partes al procesarse.
Documentos PDF extensos: Manuales de políticas completos, documentación de estándares o informes de auditoría.
Carga de múltiples documentos: Varios archivos subidos a lo largo de la conversación.
Combinación de ambos
Las conversaciones prolongadas con muchos mensajes combinadas con la carga de archivos grandes pueden superar rápidamente los 200,000 tokens, incluso si cada mensaje individual parece razonable.
Ejemplo: Una hoja de cálculo de cumplimiento integral (como una matriz de control detallada o un documento de requisitos de múltiples marcos) puede dividirse en más de 100 partes al ser procesada. Al combinarse con un historial de conversación extendido y cargas de documentos adicionales, esto puede empujar fácilmente el uso total de tokens más allá del límite de 200,000.
Cómo solucionarlo
1. Inicia una nueva conversación (Recomendado)
Tu conversación anterior se guarda automáticamente y es accesible en cualquier momento. Simplemente inicia una conversación nueva para continuar tu trabajo.
Pasos:
Haz clic en el logotipo de ISMS Copilot (arriba a la izquierda) para volver a la pantalla de bienvenida.
Comienza a escribir tu próxima pregunta en una nueva conversación.
Tu conversación antigua permanece en tu historial y espacio de trabajo.
2. Resume el contexto anterior
Si necesitas hacer referencia a trabajos anteriores, copia los hallazgos clave de tu conversación larga e inclúyelos en tu nuevo chat.
Ejemplo:
"Basándonos en nuestro análisis de brechas anterior, identificamos 12 controles de ISO 27001 faltantes en el Anexo A.8 (Gestión de activos). Estamos implementando una CMDB para A.8.1. Ahora necesito ayuda con A.8.2 (clasificación de la información)..."
Esto le da a la IA el contexto que necesita sin cargar todo el historial de la conversación.
3. Sube archivos más pequeños o en menor cantidad
Para tu nueva conversación, sé estratégico con la carga de archivos:
Divide documentos grandes en secciones: Sube solo las páginas o pestañas relevantes que necesites analizar.
Sube un archivo a la vez: Analiza el primer documento y luego inicia una nueva conversación para el siguiente.
Convierte hojas de cálculo grandes: Extrae hojas de trabajo específicas a archivos separados en lugar de subir libros enteros.
Elimina contenido innecesario: Borra portadas, imágenes o apéndices que no sean necesarios para el análisis.
Para hojas de cálculo de cumplimiento grandes con múltiples pestañas o dominios de requisitos, sube solo las secciones específicas en las que estés trabajando en lugar del libro completo.
4. Usa conversaciones separadas para diferentes temas
En lugar de una sola conversación larga que cubra todo, crea conversaciones enfocadas:
Una conversación por dominio de control: Chats separados para Control de Acceso (A.5), Criptografía (A.8), Seguridad Física (A.7), etc.
Una conversación por documento: Analiza cada política o procedimiento en su propio hilo.
Una conversación por área de auditoría: Mantén la preparación previa a la auditoría separada de la remediación posterior a la misma.
Este enfoque también facilita la búsqueda de discusiones específicas más adelante.
Mejores prácticas para evitar este error
Para consultores que gestionan proyectos de clientes
Crea espacios de trabajo separados para cada cliente.
Dentro de cada espacio de trabajo, usa conversaciones separadas para diferentes fases (análisis de brechas, implementación, preparación de auditoría).
Exporta regularmente los hallazgos importantes a tu propia documentación.
Para implementaciones de ISO 27001
Crea una conversación por cada categoría de control del Anexo A.
Genera políticas en sesiones enfocadas en lugar de todas a la vez.
Mantén las evaluaciones de riesgos en una conversación separada de la implementación de controles.
Para el análisis de documentos
Sube y analiza una política a la vez.
Para el análisis de brechas de múltiples documentos, crea conversaciones separadas para cada uno.
Resume los hallazgos de análisis previos en lugar de volver a subir los archivos.
Compactación automática para el modo Think (Pensar)
Buenas noticias: La compactación automática de conversaciones ya está activa para el modo Think (Claude Opus 4.6). Cuando tu conversación en modo Think se acerca al límite de contexto, el sistema resume automáticamente los mensajes anteriores en segundo plano, lo que te permite continuar indefinidamente sin iniciar un nuevo chat.
Cómo funciona:
Resumen automático: Al acercarse a ~150,000 tokens en el modo Think, el backend compacta los mensajes más antiguos mientras preserva el contexto clave.
Indicador visual: Verás un breve mensaje de progreso "Compactando nuestra conversación..." (indicador ámbar) durante el proceso.
Continuación fluida: Después de unos segundos, tu conversación se reanuda normalmente con todo el contexto preservado.
Conversaciones infinitas: Se acabaron los reinicios manuales para discusiones de cumplimiento extendidas, análisis de brechas o revisiones de políticas.
Solo modo Think: La compactación está disponible actualmente de forma exclusiva para el modo Think (Claude Opus 4.6). El modo Fast y otros modelos de IA todavía tienen límites estándar de longitud de conversación. Para trabajos de cumplimiento largos y complejos que requieran un contexto extendido, cambia al modo Think.
Para otros modos: Si estás usando el modo Fast u otros modelos de IA y alcanzas el límite de longitud de la conversación, iniciar una nueva conversación sigue siendo el enfoque recomendado. Tu conversación anterior se guarda automáticamente y es accesible en cualquier momento.
Entendiendo los límites de tokens
Diferentes modelos de IA tienen diferentes tamaños de ventana de contexto:
Claude Opus 4.5: 200,000 tokens (~500 páginas)
Mistral Medium: 128,000 tokens (~320 páginas)
Qué cuenta para el límite:
Cada mensaje que envías.
Cada respuesta de la IA.
Todo el contenido de los archivos subidos (texto extraído de PDF, hojas de cálculo, etc.).
Prompts del sistema y conocimiento del marco de trabajo (mínimo, pero presente).
Estimación de tokens: Como guía general, 1 token ≈ 4 caracteres de texto. Así que 200,000 tokens ≈ 800,000 caracteres ≈ 500 páginas de documentos comerciales típicos.
Obtener ayuda
Si alcanzas este límite constantemente o necesitas ayuda para recuperar el contexto de una conversación muy larga:
Contacta con soporte a través de Menú de usuario → Centro de ayuda → Contactar con soporte.
Incluye el título de la conversación o el nombre del espacio de trabajo.
Explica en qué estabas trabajando y qué contexto necesitas preservar.
Podemos ayudarte a extraer información clave y estructurar tu trabajo en conversaciones manejables.
Enero de 2026: Hemos implementado un seguimiento en el backend para identificar a los usuarios afectados por este error, lo que permite a nuestro equipo de soporte brindar una asistencia más rápida y específica.
Recursos relacionados
Problemas conocidos: errores de límite de tokens - Detalles técnicos y estado de desarrollo.
Resolución de problemas comunes - Otros errores de chat y mensajería.
Organización del trabajo con espacios de trabajo - Mejores prácticas para gestionar múltiples proyectos.
Carga y análisis de archivos - Directrices y límites de carga de archivos.