Spaces:
Running
on
Zero
Running
on
Zero
| import gradio as gr | |
| import torch | |
| import os | |
| from huggingface_hub import hf_hub_download | |
| import sys | |
| import soundfile as sf | |
| import numpy as np | |
| import logging | |
| import tempfile | |
| import spaces | |
| # Configuration du logger | |
| logging.basicConfig(level=logging.DEBUG, format='%(asctime)s - %(levelname)s - %(message)s') | |
| #Chemin local de téléchargement des fichiers (il faut s'assurer que le dossier existe) | |
| LOCAL_DOWNLOAD_PATH = os.path.dirname(os.path.abspath(__file__)) # Utiliser le chemin du script | |
| # Télécharger le script d'inférence | |
| repo_id = "dofbi/galsenai-xtts-v2-wolof-inference" | |
| inference_file = hf_hub_download(repo_id=repo_id, filename="inference.py", local_dir=LOCAL_DOWNLOAD_PATH) | |
| # Ajouter le dossier au chemin de recherche | |
| sys.path.insert(0, LOCAL_DOWNLOAD_PATH) | |
| # Importer la classe à partir du script d'inférence téléchargé | |
| from inference import WolofXTTSInference | |
| # Initialiser le modèle une seule fois | |
| tts_model = WolofXTTSInference() | |
| def tts(text: str, audio_reference: tuple[int, np.ndarray]) -> tuple[int, np.ndarray] | str: | |
| """ | |
| Synthétise de la parole à partir d'un texte en utilisant un audio de référence. | |
| Args: | |
| text (str): Le texte à synthétiser. | |
| audio_reference (tuple[int, np.ndarray]): Un tuple contenant le taux d'échantillonnage et les données audio de référence. | |
| Returns: | |
| tuple[int, np.ndarray] | str: un tuple contenant le taux d'échantillonnage et les données audio synthétisées, ou un message d'erreur. | |
| """ | |
| logging.debug(f"tts function called with text: {text} and audio_reference: {audio_reference}") | |
| if not text or audio_reference is None: | |
| logging.debug("Text or audio reference is missing") | |
| return "Veuillez entrer un texte et fournir un audio de référence." | |
| try: | |
| sample_rate, audio_data = audio_reference | |
| # Créer un fichier temporaire pour l'audio de référence | |
| with tempfile.NamedTemporaryFile(suffix=".wav", delete=True) as temp_audio_file: | |
| sf.write(temp_audio_file.name, audio_data, sample_rate) | |
| logging.debug(f"Audio reference saved to {temp_audio_file.name}") | |
| # Utiliser la méthode generate_audio de la nouvelle classe | |
| audio_output, output_sample_rate = tts_model.generate_audio( | |
| text, | |
| reference_audio=temp_audio_file.name | |
| ) | |
| logging.debug(f"Audio generated with sample rate: {output_sample_rate}") | |
| return (output_sample_rate, audio_output) | |
| except Exception as e: | |
| logging.error(f"Error during audio generation: {e}") | |
| return f"Une erreur s'est produite lors de la génération audio: {e}" | |
| if __name__ == "__main__": | |
| demo = gr.Interface( | |
| fn=tts, | |
| inputs=[ | |
| gr.Textbox(label="Text to synthesize"), | |
| gr.Audio(type="numpy", label="Reference audio") | |
| ], | |
| outputs=gr.Audio(label="Synthesized audio"), | |
| ) | |
| demo.launch() |