Dans les coulisses techniques de la fabrication TV, j'ai vu des technologies arriver, transformer les équipes, puis devenir invisibles tant elles sont intégrées. L'IA suit le même chemin, mais plus vite et avec plus de bruit.

Et ce que je vois est plus complexe et plus humain que ce que racontent les conférences.

Ce numéro n'est pas une liste d'outils. C'est une radiographie terrain : ce qui fonctionne, ce qui résiste, ce qu'on n'ose pas dire, et les questions qu'on évite encore.

🌍 Observations issues de mon expérience. Elles n'engagent pas mon employeur.

Réalité N°1 | Là où l'IA gagne sans résistance : le sous-titrage temps réel

C'est l'adoption la plus silencieuse et la plus réussie de l'IA dans le broadcast français.

Franceinfo figure parmi les pionniers européens du sous-titrage automatique IA en production réelle, aux côtés de la BBC qui mène ses propres expérimentations depuis août 2024. La différence : Franceinfo l'a déployé en production live, sans filet, depuis novembre 2024, sur une large plage de diffusion quotidienne.

Pourquoi ça a marché sans friction ? Parce que la machine fait ici quelque chose qu'aucun humain ne peut faire à cette échelle et avec cette latence. Pas de concurrence directe. Pas de menace perçue. Pas d'ego à défendre.

Le déploiement s'est appuyé sur des solutions SaaS intégrées directement dans le workflow MAM, Dalet Five dans ce cas précis. Les solutions comme Speechmatics atteignent aujourd'hui moins de 250ms pour des transcriptions partielles et environ 400ms pour la détection de fin de parole. Résultat : du sous-titrage live sans décalage perceptible pour le téléspectateur.

→ Leçon : l'IA s'impose naturellement là où elle ne concurrence pas l'humain. C'est le premier critère d'une adoption réussie, et le plus révélateur sur toutes les résistances qui suivent.

Réalité N°1 | Là où l'IA gagne sans résistance : le sous-titrage temps réel

Sur le terrain, beaucoup de professionnels utilisent déjà l'IA : des ingénieurs, des techniciens de support, des chefs de projet. Mais ils n'en parlent pas.

Pourquoi ? Parce que dire "j'ai utilisé l'IA" est encore parfois perçu comme : "je n'aurais pas pu le faire seul."

L'égo professionnel prend le dessus sur l'efficacité collective. On reconnaît parfois qu'un collègue en fait usage, à la qualité ou à la rapidité de son travail, mais le sujet ne se discute pas ouvertement. Pas de débat. Pas de partage de pratiques. Un non-dit collectif.

C'est un problème culturel, pas technique. Tant que l'usage de l'IA sera vu comme une faiblesse, les organisations perdront un avantage compétitif majeur par peur du regard des autres.

→ Leçon : les managers broadcast doivent créer un environnement où partager ses pratiques IA est valorisé, pas sanctionné socialement. Sans ça, les gains de productivité resteront individuels et invisibles.

Réalité N°2 | Le tabou : l'IA qu'on utilise… sans l'assumer

Sur le terrain, beaucoup de professionnels utilisent déjà l'IA : des ingénieurs, des techniciens de support, des chefs de projet. Mais ils n'en parlent pas.

Un bandeau qui ne sort pas à l'antenne n'est jamais "juste un problème Vizrt."

Laissez-moi vous décrire un workflow réel que je connais concrètement.

Dans la fabrication d'un sujet JT avec incrustations dynamiques de synthés, voici la chaîne complète : OpenMedia assure le NRCS et la gestion du rundown, le plugin Viz intégré dans OneCut permet au journaliste ou au deskeur de créer ses synthés directement dans l'outil de montage, OneCut de Dalet fabrique le sujet JT complet avec les synthés intégrés au timeline, et Viz Mosart orchestre l'automation et l'incrustation dynamique des synthés à l'antenne.

Tous ces systèmes communiquent via le protocole MOS.

Quand ça plante, et ça plante, voici ce qui se passe réellement. Le journaliste a ses synthés. Le sujet est monté. Mais à l'antenne, les incrustations n'apparaissent pas. Ou apparaissent au mauvais moment. Ou avec les mauvaises données.

Et commence le fameux "ping-pong" : OpenMedia accuse le plugin Viz. Le plugin accuse OneCut. OneCut accuse Viz Mosart. Viz Mosart accuse le réseau. Le réseau accuse le MOS. Et pendant ce temps, l'antenne attend.

Ce qui rend ce diagnostic encore plus complexe : Vizrt intervient à deux niveaux simultanément dans ce workflow, les graphiques d'un côté, l'automation de régie de l'autre. Accuser "Vizrt" ne suffit donc même pas à isoler le problème.

La solution théorique existe, elle s'appelle l'observabilité cross-système : logs unifiés, métriques corrélées, traces bout en bout. Dans le cloud, c'est mature. Dans le broadcast, c'est encore un chantier.

Cinq freins se cumulent : des systèmes hétérogènes sans standard cross-vendor, des équipes organisées par silo plutôt que par flux éditorial, une pression opérationnelle permanente qui interdit les itérations, une culture du diagnostic empirique où le savoir reste dans les têtes plutôt que dans les systèmes, et une méfiance légitime vis-à-vis de l'IA : ajouter une couche d'intelligence sur des systèmes qu'on ne comprend pas encore complètement, c'est une source d'inquiétude réelle pour les équipes techniques.

Me projeter dans un environnement broadcast full observabilité reste difficile aujourd'hui. Pas impossible, mais difficile. Le chemin est incrémental : un cas concret, un flux, un incident, avant de prétendre à une vision globale.

→ Leçon : l'IA de diagnostic broadcast n'est pas le point de départ, c'est la destination. Elle vient après l'observabilité, pas avant. Et l'observabilité elle-même vient après un travail organisationnel que la technologie seule ne peut pas faire.

Réalité N°3 | Documentalistes : pas la peur du chômage, la peur du sens perdu

Il y a une nuance fondamentale que les débats sur "l'IA va-t-elle supprimer des emplois" ratent systématiquement.

Les outils SaaS d'indexation et d'archivage audiovisuel assistés par IA sont aujourd'hui incontournables : reconnaissance faciale sur des archives de 20 ans, tagging automatique de milliers d'heures de contenu, recherche instantanée en langage naturel. Gain de productivité énorme. Bienvenu. Réel.

Mais la vraie résistance que j'observe chez les documentalistes n'est pas "je vais perdre mon emploi." C'est : "si la machine fait ce que je faisais, quel est encore mon rôle ?"

Ce n'est pas de la peur. C'est une question de sens métier.

Le rôle évolue vers la supervision de la qualité de l'indexation IA, la gestion des droits, la curation éditoriale. C'est un métier différent, pas un métier disparu. Mais cette transition ne se fait pas seule, elle nécessite un accompagnement que peu d'organisations ont formalisé.

→ Leçon : quand on déploie de l'IA dans une équipe, la question "comment ça va changer votre travail ?" n'est pas optionnelle. C'est la première question à poser, avant la démo technique.

Réalité N°4 | Le vrai frein du montage IA : l'éthique

Adobe Firefly fonctionne remarquablement bien.

La fonctionnalité Generative Extend, qui permet d'allonger un plan lorsque la matière filmée est insuffisante, est techniquement impressionnante. Disponible depuis NAB 2025 en 4K.

Mais dans une rédaction d'information, une question bloque tout : peut-on modifier la réalité filmée ?

Prolonger un plan d'ambiance dans une zone de conflit pour avoir la durée nécessaire au montage ? Recréer une incrustation manquante à partir de données générées ? Techniquement trivial. Éditorialement critique.

Dans les grandes rédactions, l'éthique prime sur l'esthétique. C'est une position ferme, collective, non négociable.

Ce débat n'a pas encore eu lieu formellement dans la plupart des rédactions françaises. Il devrait, avant que la pression des délais pousse quelqu'un à franchir une ligne sans s'en rendre compte.

→ Leçon : les outils IA de montage doivent s'accompagner d'une charte éditoriale explicite. La technologie n'attend pas les débats éthiques, c'est aux équipes de les anticiper.

⚙️ L'outil de la semaine | Amplify · GeNews et Seiri

Amplify est un éditeur espagnol dont les deux solutions IA s'intègrent directement dans les workflows média, distribuées en France via Aski-da, intégrateur audiovisuel parisien partenaire de France Télévisions, M6, France 24 et Eurosport.

GeNews aide les journalistes et les équipes de contenu à créer plus rapidement des vidéos convaincantes, en sélectionnant automatiquement des images, en créant un montage et un commentaire à l'aide de l'IA générative, le tout dans un workflow convivial pour la rédaction.

Seiri est l'assistant IA dédié à l'extraction de métadonnées et au catalogage de contenu multimédia, avec plus d'une douzaine de fonctions spécifiquement conçues pour l'audiovisuel : transcription automatique, reconnaissance faciale, identification de la langue, traduction, génération de résumés, détection d'images clés, OCR, détection de logo et reconnaissance d'objets.

Ce qui rend Amplify pertinent dans le contexte de ce numéro : GeNews entre dans la rédaction par la porte éditoriale, pas technique. Et Seiri répond exactement à la question des documentalistes, pas en remplaçant leur métier, mais en automatisant l'indexation pour qu'ils se concentrent sur la curation et la valeur éditoriale.

Aski-da organisait un webinaire sur Amplify le 14 avril 2026. Le lien est en commentaire si vous souhaitez accéder au replay.

→ Note terrain : GeNews génère un montage automatique, mais dans quelle chaîne MAM ? Avec quel système de validation éditoriale ? C'est là que la valeur d'un intégrateur comme Aski-da devient essentielle.

📰 3 actus à retenir | Mai 2026

📡 Adobe NAB 2026 : Firefly entre dans l'ère de l'édition conversationnelle

Adobe a présenté au NAB 2026 un éditeur vidéo Firefly entièrement basé navigateur avec édition hybride timeline et contrôles en langage naturel, outils audio incluant Enhance Speech, et le nouveau Color Mode en bêta publique pour Premiere Pro 26.2.

Mon avis : techniquement bluffant. Mais pour les rédactions d'info, la question n'est pas "est-ce que ça marche ?" C'est "jusqu'où peut-on l'utiliser sans trahir le réel ?" Ce débat est urgent et ne peut plus attendre.

📡 Speechmatics : la transcription temps réel sous les 250 millisecondes

Speechmatics annonce des transcriptions partielles en moins de 250ms, avec détection de fin de parole en 400ms. C'est la latence qui rend le sous-titrage live réellement utilisable en broadcast.

Mon avis : la barrière technique est franchie. Ce qui reste à construire, c'est l'intégration dans les workflows MAM et de diffusion existants. C'est là que le vrai travail commence, et c'est souvent là que les projets ralentissent.

📡 IA agentique : l'inquiétude légitime des équipes techniques broadcast

Des IA capables d'exécuter des tâches complexes de manière autonome et enchaînée commencent à circuler dans les discussions des équipes techniques. Qui valide les décisions d'une IA qui agit seule dans un workflow de production ? Qui est responsable quand elle se trompe sur un flux MOS en direct ?

Mon avis : ce ne sont plus des questions de science-fiction. Ce sont des questions opérationnelles que les DSI et chefs techniques devront trancher dans les 24 prochains mois. Mieux vaut y réfléchir maintenant, avant d'être en situation antenne face à une décision qu'une IA a prise seule.

💬 Pour finir | Une question qui dérange

L'IA promet de simplifier.

Mais dans la réalité que j'observe, les coûts de fabrication augmentent, les licences s'accumulent, les outils s'empilent, et la complexité cross-système grandit.

Sans cadre, sans accompagnement, sans débat éthique, elle devient une pression de plus, pas une réponse.

Le vrai défi des prochaines années n'est pas technologique. C'est humain : comment adopter ces outils de manière structurante, en permettant aux professionnels de retrouver du sens dans leurs nouveaux métiers ?

Si on ne pose pas cette question maintenant, l'IA ne simplifiera rien. Elle compliquera tout.

Je n'ai pas toutes les réponses. Mais cette conversation doit avoir lieu, dans les couloirs, dans les réunions, pas seulement dans les newsletters.

Vos retours m'intéressent, répondez directement à cet email. C'est cette conversation collective qui manque dans notre industrie.

À la semaine prochaine,

Giomar Ingénieur broadcast · Fondateur Alabao Solutions et pulsebroadcast

Les opinions exprimées dans PULSE sont personnelles et n'engagent ni France Télévisions ni aucun autre employeur ou partenaire. Les informations s'appuient sur des sources publiques et l'expérience terrain personnelle de l'auteur accumulée sur 20 ans dans les rédactions broadcast françaises.

Keep Reading