Primeros pasos

Error: Conversación Demasiado Larga

Si visualizas el mensaje "Tu conversación es demasiado larga. Por favor, inicia una nueva conversación para continuar" o "El servicio de IA encontró un error. Inténtalo de nuevo" al enviar un mensaje, significa que has alcanzado la longitud máxima de conversación que la IA puede procesar.

¿Qué sucedió?

El tamaño combinado de tu historial de conversación, los archivos subidos y el mensaje actual ha excedido el límite de la ventana de contexto del modelo de IA. Este límite técnico es de 200,000 tokens (aproximadamente 500 páginas de texto u 800,000 caracteres).

Piénsalo como la "memoria de trabajo" de la IA: una vez que la conversación se vuelve demasiado larga, la IA ya no puede procesar toda la información a la vez.

¿Por qué sucedió esto?

Este error ocurre típicamente cuando tienes:

Historial de conversación extenso

Las conversaciones con más de 100 mensajes, especialmente discusiones detalladas sobre temas complejos de cumplimiento, pueden acumular un contexto significativo.

Archivos subidos de gran tamaño

Los archivos consumen una gran parte del límite de contexto, particularmente:

  • Hojas de cálculo con múltiples pestañas - Los archivos de Excel grandes con matrices de control extensas o requisitos detallados pueden dividirse en más de 100 partes al ser procesados

  • Documentos PDF extensos - Manuales de políticas completos, documentación de estándares o informes de auditoría

  • Subida de múltiples documentos - Varios archivos subidos a lo largo de la conversación

Combinación de ambos

Las conversaciones extendidas con muchos mensajes combinadas con la subida de archivos grandes pueden exceder rápidamente los 200,000 tokens, incluso si cada mensaje individual parece razonable.

Ejemplo: Una hoja de cálculo de cumplimiento integral (como una matriz de control detallada o un documento de requisitos de múltiples marcos) puede dividirse en más de 100 partes al ser procesada. Al combinarse con un historial de conversación extendido y subidas de documentos adicionales, esto puede fácilmente empujar el uso total de tokens más allá del límite de 200,000.

Cómo solucionarlo

1. Inicia una nueva conversación (Recomendado)

Tu conversación anterior se guarda automáticamente y es accesible en cualquier momento. Simplemente inicia una conversación nueva para continuar tu trabajo.

Pasos:

  1. Haz clic en el logotipo de ISMS Copilot (arriba a la izquierda) para volver a la pantalla de bienvenida

  2. Comienza a escribir tu próxima pregunta en una nueva conversación

  3. Tu conversación antigua permanece en tu historial y espacio de trabajo

2. Resume el contexto anterior

Si necesitas hacer referencia a un trabajo anterior, copia los hallazgos clave de tu conversación larga e inclúyelos en tu nuevo chat.

Ejemplo:

"Basado en nuestro análisis de brechas anterior, identificamos 12 controles de ISO 27001 faltantes en el Anexo A.8 (Gestión de Activos). Estamos implementando una CMDB para A.8.1. Ahora necesito ayuda con A.8.2 (clasificación de la información)..."

Esto le da a la IA el contexto que necesita sin cargar todo el historial de la conversación.

3. Sube archivos más pequeños o en menor cantidad

Para tu nueva conversación, sé estratégico con la subida de archivos:

  • Divide documentos grandes en secciones - Sube solo las páginas o pestañas relevantes que necesites analizar

  • Sube un archivo a la vez - Analiza el primer documento y luego inicia una nueva conversación para el siguiente

  • Convierte hojas de cálculo grandes - Extrae hojas de trabajo específicas a archivos separados en lugar de subir libros enteros

  • Elimina contenido innecesario - Borra portadas, imágenes o apéndices que no sean necesarios para el análisis

Para hojas de cálculo de cumplimiento grandes con múltiples pestañas o dominios de requisitos, sube solo las secciones específicas en las que estés trabajando en lugar del libro completo.

4. Usa conversaciones separadas para diferentes temas

En lugar de una sola conversación larga que cubra todo, crea conversaciones enfocadas:

  • Una conversación por dominio de control - Chats separados para Control de Acceso (A.5), Criptografía (A.8), Seguridad Física (A.7), etc.

  • Una conversación por documento - Analiza cada política o procedimiento en su propio hilo

  • Una conversación por área de auditoría - Mantén la preparación previa a la auditoría separada de la remediación posterior a la misma

Este enfoque también facilita encontrar discusiones específicas más adelante.

Mejores prácticas para evitar este error

Para consultores que gestionan proyectos de clientes

  • Crea espacios de trabajo separados para cada cliente

  • Dentro de cada espacio de trabajo, usa conversaciones separadas para diferentes fases (análisis de brechas, implementación, preparación de auditoría)

  • Exporta hallazgos importantes a tu propia documentación regularmente

Para implementaciones de ISO 27001

  • Crea una conversación por categoría de control del Anexo A

  • Genera políticas en sesiones enfocadas en lugar de todas a la vez

  • Mantén las evaluaciones de riesgos en una conversación separada de la implementación de controles

Para análisis de documentos

  • Sube y analiza una política a la vez

  • Para análisis de brechas de múltiples documentos, crea conversaciones separadas para cada uno

  • Resume los hallazgos de análisis anteriores en lugar de volver a subir los archivos

Próximamente

Estamos desarrollando activamente una ventana de contexto rodante automática que gestionará conversaciones largas sin interrupciones, similar a cómo Claude.ai y ChatGPT manejan discusiones extendidas.

Cómo funcionará:

  • El sistema resumirá automáticamente los mensajes más antiguos conservando la información clave

  • El contexto de la conversación reciente y los archivos subidos siempre estarán disponibles

  • Podrás continuar las conversaciones indefinidamente sin intervención manual

  • El contexto importante como hallazgos de auditoría, números de control y decisiones quedará anclado

Hasta que se implemente la ventana de contexto rodante, la solución recomendada es iniciar una nueva conversación. Tu trabajo siempre se guarda y puedes consultar conversaciones anteriores en cualquier momento.

Entendiendo los límites de tokens

Diferentes modelos de IA tienen diferentes tamaños de ventana de contexto:

  • Claude Opus 4.5: 200,000 tokens (~500 páginas)

  • Mistral Medium: 128,000 tokens (~320 páginas)

Qué cuenta para el límite:

  • Cada mensaje que envías

  • Cada respuesta de la IA

  • Todo el contenido de los archivos subidos (texto extraído de PDFs, hojas de cálculo, etc.)

  • Prompts del sistema y conocimiento del marco de trabajo (mínimo, pero presente)

Estimación de tokens: Como guía aproximada, 1 token ≈ 4 caracteres de texto. Por lo tanto, 200,000 tokens ≈ 800,000 caracteres ≈ 500 páginas de documentos de negocios típicos.

Obteniendo ayuda

Si alcanzas este límite constantemente o necesitas ayuda para recuperar el contexto de una conversación muy larga:

  1. Contacta a soporte a través de Menú de Usuario → Centro de Ayuda → Contactar Soporte

  2. Incluye el título de la conversación o el nombre del espacio de trabajo

  3. Explica en qué estabas trabajando y qué contexto necesitas conservar

  4. Podemos ayudarte a extraer información clave y estructurar tu trabajo en conversaciones manejables

Enero de 2026: Hemos implementado un seguimiento en el backend para identificar a los usuarios afectados por este error, permitiendo que nuestro equipo de soporte brinde una asistencia más rápida y dirigida.

Recursos Relacionados

¿Te fue útil?