[{"@type":"PropertyValue","name":"Escala de datos","value":"50.356 imágenes"},{"@type":"PropertyValue","name":"Distribución étnica","value":"18.458 fotos de raza amarilla, 27.191 fotos de raza blanca, 4.707 fotos de raza negra"},{"@type":"PropertyValue","name":"Distribución por género","value":"18.381 imágenes masculinas, 31.975 imágenes femeninas"},{"@type":"PropertyValue","name":"Distribución por edad","value":"5.196 jóvenes; 44.751 adultos jóvenes; 409 adultos mayores"},{"@type":"PropertyValue","name":"Entorno de captura","value":"Incluye escenas interiores y exteriores (ej. paisajes naturales, calles, plazas, cerca de edificios, etc.)"},{"@type":"PropertyValue","name":"Diversidad de captura","value":"Cubre una amplia gama de escenas, edades, razas, posturas y apéndices."},{"@type":"PropertyValue","name":"Formato de datos","value":"Los formatos de imagen son .jpg y .png, y el formato de anotación es .json"},{"@type":"PropertyValue","name":"Contenido de etiquetado","value":"Anotación de segmentación humana+accesorios, anotación de 18 puntos clave humanos"},{"@type":"PropertyValue","name":"Precisión","value":"Requisitos de precisión: el error de posición del punto en la dirección x, y del error es de 3 píxeles dentro de la etiqueta correcta; precisión de etiquetado de clave: de acuerdo con la unidad de componentes de etiquetado, tasa de precisión de etiquetado del 97% o más; precisión de etiquetado de punto clave: de acuerdo con la unidad de punto clave, tasa de precisión de etiquetado del 97% o más."}]
{"id":958,"datatype":"1","titleimg":"https://es.nexdata.ai/shujutang/static/image/index/datatang_tuxiang_default.webp","type1":"147","type1str":null,"type2":"149","type2str":null,"dataname":"50.356 imágenes de datos de recorte corporal y 18 puntos clave","datazy":[{"title":"Escala de datos","desc":"Escala de datos","content":"50.356 imágenes"},{"title":"Distribución étnica","desc":"Distribución étnica","content":"18.458 fotos de raza amarilla, 27.191 fotos de raza blanca, 4.707 fotos de raza negra"},{"title":"Distribución por género","desc":"Distribución por género","content":"18.381 imágenes masculinas, 31.975 imágenes femeninas"},{"title":"Distribución por edad","desc":"Distribución por edad","content":"5.196 jóvenes; 44.751 adultos jóvenes; 409 adultos mayores"},{"title":"Entorno de captura","desc":"Entorno de captura","content":"Incluye escenas interiores y exteriores (ej. paisajes naturales, calles, plazas, cerca de edificios, etc.)"},{"title":"Diversidad de captura","desc":"Diversidad de captura","content":"Cubre una amplia gama de escenas, edades, razas, posturas y apéndices."},{"title":"Formato de datos","desc":"Formato de datos","content":"Los formatos de imagen son .jpg y .png, y el formato de anotación es .json"},{"title":"Contenido de etiquetado","desc":"Contenido de etiquetado","content":"Anotación de segmentación humana+accesorios, anotación de 18 puntos clave humanos"},{"title":"Precisión","desc":"Precisión","content":"Requisitos de precisión: el error de posición del punto en la dirección x, y del error es de 3 píxeles dentro de la etiqueta correcta; precisión de etiquetado de clave: de acuerdo con la unidad de componentes de etiquetado, tasa de precisión de etiquetado del 97% o más; precisión de etiquetado de punto clave: de acuerdo con la unidad de punto clave, tasa de precisión de etiquetado del 97% o más."}],"datatag":"Human body segmentation,Landmark,Multiple races,Multiples postures,Multiple scenes","technologydoc":null,"downurl":null,"datainfo":null,"standard":null,"dataylurl":null,"flag":null,"publishtime":null,"createby":null,"createtime":null,"ext1":null,"samplestoreloc":null,"hosturl":null,"datasize":null,"industryPlan":null,"keyInformation":"","samplePresentation":[{"name":"/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/1.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/1.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=afdLt8FFXxwUCPc7ONl9xzMzLBs%3D","intro":"","size":0,"progress":100,"type":"jpg"},{"name":"/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/2.jpg","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/2.jpg?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=N1CYqEOzvTA6XOJXiVbCAUdwKcc%3D","intro":"","size":0,"progress":100,"type":"jpg"},{"name":"/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/4.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/4.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=hdzhXxMM251HfTxftAK4pF4bL%2F0%3D","intro":"","size":0,"progress":100,"type":"jpg"}],"officialSummary":"50.356 imágenes de datos de recorte humano y 18 puntos clave, que incluyen diversidad en múltiples escenarios, grupos de edad, etnias, poses y accesorios. En cuanto a la anotación: se realizó recorte de imágenes para cuerpos humanos y accesorios, junto con anotación de 18 puntos clave para huesos humanos. Estos 50.356 conjuntos de datos de recorte humano y 18 puntos clave pueden utilizarse para tareas como segmentación humana y reconocimiento de comportamiento humano.","dataexampl":null,"datakeyword":["Segmentación corporal humana"," Puntos de referencia"," Múltiples razas"," Múltiples posturas"," Múltiples escenarios"],"isDelete":null,"ids":null,"idsList":null,"datasetCode":null,"productStatus":null,"tagTypeEn":"Task Type,Modalities","tagTypeZh":null,"website":null,"samplePresentationList":null,"datazyList":null,"keyInformationList":null,"dataexamplList":null,"bgimg":null,"datazyScriptList":null,"datakeywordListString":null,"sourceShowPage":"computer","dataShowType":"[{\"code\":\"0\",\"language\":\"ZH\"},{\"code\":\"1\",\"language\":\"ZH\"},{\"code\":\"2\",\"language\":\"EN,JP,PT,DE,KO,FR,ES\"},{\"code\":\"3\",\"language\":\"EN\"},{\"code\":\"4\",\"language\":\"JP\"}]","productNameEn":"50,356 Images - Human Body Segmentation and 18 Landmarks Data","BGimg":"","voiceBg":["/shujutang/static/image/comm/audio_bg.webp","/shujutang/static/image/comm/audio_bg2.webp","/shujutang/static/image/comm/audio_bg3.webp","/shujutang/static/image/comm/audio_bg4.webp","/shujutang/static/image/comm/audio_bg5.webp"],"firstList":[{"name":"/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/3.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY181115001_demo1716112800366/APY181115001_demo/3.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=OM7d2L7QqP41C9QKpsvhZ2d5Gy8%3D","intro":"","size":0,"progress":100,"type":"jpg"}]}
50.356 imágenes de datos de recorte corporal y 18 puntos clave
Segmentación corporal humana
Puntos de referencia
Múltiples razas
Múltiples posturas
Múltiples escenarios
50.356 imágenes de datos de recorte humano y 18 puntos clave, que incluyen diversidad en múltiples escenarios, grupos de edad, etnias, poses y accesorios. En cuanto a la anotación: se realizó recorte de imágenes para cuerpos humanos y accesorios, junto con anotación de 18 puntos clave para huesos humanos. Estos 50.356 conjuntos de datos de recorte humano y 18 puntos clave pueden utilizarse para tareas como segmentación humana y reconocimiento de comportamiento humano.
Este Dataset es de pago para uso comercial, investigación y más. Los Datasets licenciados y listos para usar ayudan a impulsar proyectos de IA.
Especificaciones
Escala de datos
50.356 imágenes
Distribución étnica
18.458 fotos de raza amarilla, 27.191 fotos de raza blanca, 4.707 fotos de raza negra
5.196 jóvenes; 44.751 adultos jóvenes; 409 adultos mayores
Entorno de captura
Incluye escenas interiores y exteriores (ej. paisajes naturales, calles, plazas, cerca de edificios, etc.)
Diversidad de captura
Cubre una amplia gama de escenas, edades, razas, posturas y apéndices.
Formato de datos
Los formatos de imagen son .jpg y .png, y el formato de anotación es .json
Contenido de etiquetado
Anotación de segmentación humana+accesorios, anotación de 18 puntos clave humanos
Precisión
Requisitos de precisión: el error de posición del punto en la dirección x, y del error es de 3 píxeles dentro de la etiqueta correcta; precisión de etiquetado de clave: de acuerdo con la unidad de componentes de etiquetado, tasa de precisión de etiquetado del 97% o más; precisión de etiquetado de punto clave: de acuerdo con la unidad de punto clave, tasa de precisión de etiquetado del 97% o más.