import gradio as gr from transformers import pipeline # Carga el modelo (ejemplo: Whisper) transcriber = pipeline("automatic-speech-recognition", model="openai/whisper-small") def transcribe(audio_file): # La función de Gradio pasa el audio al pipeline del modelo return transcriber(audio_file)["text"] # Define la interfaz: gr.Audio() como entrada, gr.Textbox() como salida gr.Interface( fn=transcribe, inputs=gr.Audio(type="filepath"), # El audio se guarda temporalmente en un path outputs="text", title="Convertidor de Voz a Texto con Whisper", description="Graba o sube un archivo de audio para transcribirlo." ).launch()