en

Please fill in your name

Mobile phone format error

Ingrese el teléfono

Introduzca el nombre de su empresa

Introduzca el correo electrónico de su empresa.

Ingrese los datos requeridos

Successful submission! Thank you for your support.

Format error, Please fill in again

Confirm

El requisito de datos no puede ser inferior a 5 palabras y no pueden ser números puros.

Datasets de LLM

Mejore instantáneamente el rendimiento del modelo de IA con Datasets listos para usar de alta calidad.

Tipo

Todo
42
Pie de imagen
19
Datasets SFT
7
Texto de preentrenamiento
19

250.000 ejercicios de banco de preguntas financieras

Este conjunto de datos se centra en el ámbito financiero, cubriendo preguntas de examen en subdirecciones como productos, mercados, comportamiento, principios, con un volumen total de 250.000 preguntas. De estas, preguntas de opción múltiple y preguntas abiertas representan la mitad cada una, con 125.000 preguntas respectivamente. Los datos se almacenan en formato JSONL, pudiendo proporcionar material abundante para investigación y aprendizaje de conocimientos financieros.
Finanzas preguntas examen selección Pregunta-respuesta

1.500.000 ejercicios datos procesamiento análisis estructurado exámenes coreano

Datos estructurados de análisis de preguntas de examen en coreano, volumen total aproximado de 1.500.000 preguntas; cada pregunta contiene campos como tipo de pregunta, enunciado, respuesta, análisis, etc.; las asignaturas incluyen:Primaria:lengua nacional, matemáticas, inglés, estudios sociales, ciencias;Secundaria: lengua nacional, inglés, matemáticas, ciencias, estudios sociales;Bachillerato: lengua nacional, inglés, matemáticas, física, química, biología, historia, geografía;los tipos de preguntas incluyen opción múltiple, completar espacios, verdadero/falso, respuesta abierta, etc.; estos datos pueden utilizarse para tareas de mejora de conocimiento disciplinario en modelos de gran escala.
Preguntas K12 Texto LLM Coreano

Datos textuales de la plataforma de preguntas-respuestas japonesa OKWAVE

Datos de texto de la plataforma de preguntas y respuestas OKWAVE de Japón, que contienen múltiples campos como pregunta, respuesta, categoría, fecha de publicación, autor de la publicación; los datos se actualizan continuamente. Hasta finales de abril de 2025: 8,4 millones de preguntas, 2,3 mil millones de caracteres; 27 millones de respuestas, 7,6 mil millones de caracteres; 15,5 millones de agradecimientos (agradecimientos expresados por el que pregunta al que responde), 1,7 mil millones de caracteres; 2,1 millones de explicaciones complementarias, 360 millones de caracteres; estos datos pueden usarse para el entrenamiento de modelos grandes generales.
Pregunta-respuesta Texto Japonés

32.000.000 ejercicios de datos procesados de análisis estructural de texto de exámenes de ciencias e ingeniería

Datos de procesamiento de análisis estructurado de texto de 32.000.000 de preguntas de examen de ciencias e ingeniería, que contienen asignaturas de ciencias e ingeniería como matemáticas, física, química, biología en primaria, secundaria, preparatoria y universidad. Cada pregunta contiene campos como problema, respuesta, análisis, tipo de pregunta, asignatura, etapa educativa. Estos datos pueden usarse para tareas de mejora de conocimiento disciplinario de modelos grandes.
Preguntas asignaturas ciencias LLM Texto

1.000.000 ejercicios de datos procesados de análisis estructural de texto de exámenes de código en chino

Datos de procesamiento de análisis estructurado de texto de 1.000.000 de preguntas de examen de código en chino, que contienen preguntas de código en múltiples lenguajes como c, c++, python, java, javascript. Cada pregunta contiene campos como problema, respuesta, análisis y lenguaje. Estos datos pueden ayudar al modelo a construir y consolidar habilidades de programación de código, logrando así un mejor desempeño en tareas de programación.
Preguntas código LLM Texto

100.000 entradas de conjunto de datos de texto para ajuste fino de instrucciones con modelos grandes en inglés

Conjunto de datos de texto para ajuste fino de instrucciones con modelos grandes en inglés, recurso de entrenamiento diseñado específicamente para la optimización de modelos de IA, mejora significativamente la capacidad de comprensión y ejecución de instrucciones del modelo, con doble verificación por lingüistas e ingenieros de IA, compatible perfectamente con los requisitos de ajuste fino de modelos preentrenados principales.
Conjunto de datos de ajuste fino para LLM ajuste fino supervisado conjunto de datos SFT datos de ajuste de instrucciones en inglés datos LLM de dominio general ajuste fino de modelos de IA datos de entrenamiento para seguimiento de instrucciones conjunto de datos de ajuste para GPT

50.000 conjuntos de datos de edición de imágenes

50.000 grupos de datos de edición de imágenes. Los tipos de edición incluyen eliminación de objetivo, adición de objetivo, modificación de objetivo, reemplazo de objetivo. Los objetivos de edición cubren escenarios como personas, animales, productos, plantas, paisajes, etc. En cuanto a anotaciones, según las instrucciones de edición, se realiza recorte y anotación de eliminación/adición/modificación/reemplazo del objetivo que necesita edición en la imagen. Los datos pueden usarse para composición de imágenes, aumento de datos, generación de escenas virtuales y otras tareas.
Edición imagen

25.000 conjuntos de datos de video multietilo de personas

Datos de video multiesilo de 25.000 personas, que contienen videos de múltiples estilos de 25.000 personas en diferentes escenarios. Los tonos de piel cubren blanco/amarillo/marrón/negro, las edades cubren jóvenes/adultos/ancianos. La resolución de video no es inferior a 1.920x1.080, la duración no es inferior a 10 segundos. Este conjunto de datos puede usarse para generación de video con consistencia de personajes, generación de humanos digitales y otras tareas.
Vídeo personas relacionadas Humano digital Generación vídeo

100.000 pares de conjuntos de datos de texto SFT de seguimiento de instrucciones complejas en dominio general para modelos grandes en chino

100.000 pares de instrucciones prompt complejas en chino, con una longitud de 50 a 400 caracteres, cada prompt contiene no menos de 3 condiciones restrictivas, utilizadas para entrenar y mejorar la capacidad de seguimiento de instrucciones de grandes modelos. Las categorías cubren generación (redacción de noticias, esquemas de entrevistas, creación de textos, revisión de manuscritos, redacciones en chino e inglés, aprendizaje gramatical, informes de investigación, planes de estudio, creación poética, presentación de comida, artículos publicitarios, discursos de ventas, escritura asistida de documentos oficiales, revisión de documentos oficiales, preguntas y respuestas sobre documentos políticos, etc.), reescritura (reformulación de oraciones, corrección de textos, fusión de oraciones, simplificación de textos), resumen (resumen de contenido), extracción (extracción de elementos de eventos, extracción de opiniones, extracción de palabras clave, extracción de posturas, extracción de entidades). Todos los prompts fueron escritos manualmente, satisfacen una cobertura diversificada.
LLM Seguimiento instrucciones SFT

loading

Personalice sus datos ahora

Por qué Datasets listos para usar

  • Derechos de autor

    Derechos de autor

    Derechos de autor claros y Listo para revisar
  • Seguridad

    Seguridad

    Autorizado adecuadamente Uso seguro
  • Profesional

    Profesional

    Diseñado y producido por expertos en datos de IA
  • Diversidad

    Diversidad

    Recogido de una variedad de escenas reales
  • Efectivo en costos

    Efectivo en costos

    Más rentable que los datos personalizados
  • Eficiencia

    Eficiencia

    Listo para llevar entrega en segundos
0d243dcb-6389-4762-9396-77b14ed9c8b3