Versión web lista para probar el sistema sin instalación local.
Descarga pesos, configuración y dataset para ejecutar tus propias pruebas.
La demo web corre en entorno gratuito, así que los tiempos pueden variar según la carga.
Prueba el modelo tú mismo
Accede a la versión web del proyecto y realiza pruebas con tus propios inputs para visualizar el comportamiento del modelo en un entorno interactivo.
Sube tu imagen o vídeo y lánzalo en un clic
La demo de Hugging Face permite experimentar directamente con el proyecto sin necesidad de instalar dependencias ni preparar un entorno local.
Las mejores pruebas se obtienen con imágenes centradas y escenas relativamente controladas.
En vídeo, la inferencia puede tardar más por ejecutarse en CPU y por la naturaleza del entorno gratuito.
El modelo es una ayuda a la inspección, no una garantía absoluta. Su valor está en apoyar la revisión logística.
Implementa el modelo tú mismo
Si quieres reproducir la prueba, puedes descargar los recursos principales y ejecutar el pipeline directamente en Google Colab con tus propias imágenes.
best.pt
Archivo con los mejores pesos del modelo entrenado y listo para inferencia.
data.yaml
Archivo de configuración con la estructura de clases y parámetros básicos del dataset.
Imágenes y labels
Conjunto de datos utilizado para el entrenamiento, útil para reproducibilidad y validación.
Flujo de uso en Google Colab
El proceso está pensado para que puedas ejecutar inferencias, generar labels automáticas y descargar el resultado filtrado sin complicaciones.
Instala Ultralytics y prepara el entorno de trabajo en Colab.
Carga tu ZIP de imágenes, junto con best.pt y data.yaml.
Lanza yolo detect predict y genera labels con nivel de confianza.
Conserva predicciones por encima del umbral y descarga el ZIP resultante.
Instrucciones y código para Google Colab
He mantenido tu flujo original, pero presentado de forma más limpia para que resulte más profesional y fácil de seguir.
Ver script completo de ejecución Colab
# Instalar ultralytics
!pip install -q ultralytics
# Subir imagenes_nuevas.zip (imágenes que quieras predecir), best.pt y data.yaml
from google.colab import files
uploaded = files.upload()
# Extraer imágenes
!rm -rf /content/imagenes_nuevas/
!mkdir -p /content/imagenes_nuevas
!unzip -oq imagenes_nuevas.zip -d /content/imagenes_nuevas
# Mover imágenes desde subcarpetas
import os, glob, shutil
for ruta in glob.glob('/content/imagenes_nuevas/**/*.*', recursive=True):
if ruta.lower().endswith(('.jpg', '.jpeg', '.png', '.bmp', '.tif', '.tiff', '.webp')):
try:
nombre = os.path.basename(ruta)
destino = os.path.join('/content/imagenes_nuevas/', nombre)
if not os.path.samefile(ruta, destino):
shutil.move(ruta, destino)
except Exception:
pass
# Autolabel con best.pt, utilizamos el archivo para que pongan las labels de las predicciones
!yolo detect predict model=best.pt \
source=/content/imagenes_nuevas \
save_txt \
save_conf \
project=/content/predicciones \
name=resultados
# Filtrar por confianza ≥ 0.7 (puedes variar el parámetro de confianza; a mayor confianza,
# es más probable que prediga menos clases)
ruta_labels = '/content/predicciones/resultados/labels'
filtradas = '/content/predicciones_filtradas'
if os.path.exists(filtradas):
shutil.rmtree(filtradas)
os.makedirs(filtradas, exist_ok=True)
for archivo in os.listdir(ruta_labels):
if archivo.endswith('.txt'):
ruta = os.path.join(ruta_labels, archivo)
lineas_filtradas = []
with open(ruta, 'r') as f:
for linea in f:
partes = linea.strip().split()
if len(partes) > 5 and float(partes[-1]) >= 0.7:
lineas_filtradas.append(' '.join(partes[:-1]))
if lineas_filtradas:
with open(os.path.join(filtradas, archivo), 'w') as f:
f.write('\n'.join(lineas_filtradas))
# Comprimir y descargar
!zip -qr /content/labels_filtradas.zip /content/predicciones_filtradas
from google.colab import files
files.download('/content/labels_filtradas.zip')
Una demo sólida también comunica valor de producto
Esta página está pensada para que cualquier evaluador entienda rápido cómo probar el sistema, cómo reproducirlo y qué puede esperar del modelo en un contexto real.