| import gradio as gr | |
| from transformers import pipeline | |
| # Carga el modelo (ejemplo: Whisper) | |
| transcriber = pipeline("automatic-speech-recognition", model="openai/whisper-small") | |
| def transcribe(audio_file): | |
| # La función de Gradio pasa el audio al pipeline del modelo | |
| return transcriber(audio_file)["text"] | |
| # Define la interfaz: gr.Audio() como entrada, gr.Textbox() como salida | |
| gr.Interface( | |
| fn=transcribe, | |
| inputs=gr.Audio(type="filepath"), # El audio se guarda temporalmente en un path | |
| outputs="text", | |
| title="Convertidor de Voz a Texto con Whisper", | |
| description="Graba o sube un archivo de audio para transcribirlo." | |
| ).launch() | |