Dans un article précédent, je racontais comment utiliser pulseaudio et jack pour envoyer dans une visio le son de n’importe quel logiciel.
Il arrive aussi que l’on veuille utiliser ce genre de routages pour enregistrer dans un DAW (digital audio workstation) le son de n’importe quel logiciel. Jack est un serveur son super flexible, qui permet de faire un grand nombre de routages, et ce de manière très simple grâce à l’interface claudia.
Je vous propose donc une vidéo qui raconte de manière très simplifiée comment tout cela fonctionne, avec des petits dessins, mais aussi des vrais clics dans les logiciels.
Le dernier article sur mes lectures date un peu, car j’ai pris l’habitude de les évoquer sur twitter. Sur la plateforme de microbloging (comme on disait autrefois), je publie au fil de ces lectures quelques extraits qui correspondent aux discussions en cours… Mais après une année, j’ai un peu perdu la vision d’ensemble que permettait auparavant les posts sur ce blog, sur les thématiques dont je parle ici.
Voici donc sous forme d’un article récapitulatif quelques références à des livres que j’ai aimé lire cette année.
Du son
Le son est toujours une question qui m’intéresse, depuis la création radiophonique jusqu’à l’écoute et l’écologie sonore. Si je lis moins sur la question qu’il y a quelques années, j’ai tout de même trouvé quelques titres qui ont vraiment attiré mon attention.
Du son au signe, de Jean-Yves Bosseur
Je connais le travail de Jean-Yves Bosseur depuis près de 10 ans, grâce au festival Musiques Démesurées, où il avait été invité à plusieurs reprises. Ce musicologue raconte de manière passionnante l’histoire de la notation musicale. Du son au signe raconte cela, de manière chronologique. Si la qualité de la mise en page et de reproduction des figures laisse un peu à désirer, l’histoire qu’y déroule Jean-Yves Bosseur est captivante.
Audimat numéro 15
Je ne regrette vraiment pas mon abonnement à Audimat, où les articles balayent une grande diversité de questions, à la frontière entre son, production musicale et société. Le numéro 15 est aussi intéressant que les précédents. Déroulez le fil twitter pour en trouver quelques détails.
It’s a teenager dream, Dominique Blanc-Francard
Dominique Blanc-Francard (DBF) est l’un des producteurs et ingénieur son français les plus actifs de la deuxième moitié du XXe siècle. Dans cette autobiographie, co-écrite avec Olivier Schmitt, il parcourt sa trajectoire professionnelle, en racontant l’évolution matérielle et technique, les rencontres artistiques, les succès et les productions plus confidentielles. Je l’ai lu d’une traite, comme une promenade au cœur d’un univers riche en aventures, rencontres et explorations en tout genre.
Electroclit” #1
Un fanzine découvert grâce aux conseils de Claude, qui raconte les débuts des musiques électroniques, en tissant au fil des portraits des liens entre facteurs et factrices d’instruments, musiciens et musiciennes… En proposant une alternative solide aux rétrospectives qui ignorent la place des femmes dans cette histoire, ou au contraire les utilisant comme des arguments commerciaux avec futilité.
Mettre en ondes la fiction radiophonique, de Blandine Masson
Dans ce livre publié en 2021, Blandine Masson raconte les rapports tumultueux entre théâtre et radio en France, où plusieurs écoles se sont exprimées en parallèle : soit en envisageant la radio comme un outil de rediffusion des grandes pièces de théâtre, permettant de rendre accessibles à toutes et à tous cette expression artistique, soit comme un espace où expérimenter une nouvelle manière de penser le théâtre, en exploitant toutes les possibilités du média. Certaines décennies ont vu l’une des écoles dominer, parfois l’autre. Parfois le théâtre a même failli disparaître de l’antenne de Radio France, jusqu’à ce que le podcast vienne sauver ces pratiques. On découvre aussi dans ce livre l’importance du festival d’Avignon dans cette histoire.
Pourquoi le nord est-il en haut ? petite histoire des conventions cartographiques, de Mick Ashworth
Évoqué dans le tweet un peu plus haut, Pourquoi le nord est-il en haut ? petite histoire des conventions cartographiques propose de très nombreuses reproductions de très belles cartes, qui interrogent à travers le temps et l’espace les pratiques cartographiques. On s’y promène avec plaisir, et les pages se succèdent, plus captivantes les unes que les autres sans que l’on s’en aperçoive. On y retrouve pas mal d’idées connues des curieux de la cartographie, mais aussi plein d’exemples qui illustrent et permettent de mieux comprendre encore.
L’atlas des frontières, de Bruno Tertrais, Delphine Papin et Xemartin Laborde
Lui aussi évoqué dans le tweet un peu plus haut, L’atlas des frontières n’est pas un livre militant, mais explore bon nombre de questions et problématiques autour des frontières. On y trouve des curiosités administratives, des usages et des lois, des histoires de peuples et d’humains. C’est à la fois captivant et illustre parfaitement l’absurdité des lois humaines qui partitionnent le monde.
The Red Atlas, de John Davies et Alexander J. Kent
Découvert grâce à une vidéo de Map Men, c’est le premier livre en langue anglaise consacré aux cartes que j’ai eu envie de lire. On y retrouve l’enquête de passionnés, qui essayent de retrouver grâce à ces cartes ayant émergé après la chute du mur comment les services secrets de l’URSS ont réussi à cartographier pendant plusieurs dizaines d’années les territoires du bloc de l’ouest, d’une manière précise, uniforme et rigoureuse. On découvre au cours des chapitres les erreurs ou biais de représentation qui permettent de retracer les outils : cartes civiles des pays de l’ouest, enquêtes sur place, anciennes cartes militaires allemandes, vues satellites…
How to Lie With Maps, de Mark Monmonier
En faisant l’acquisition d’un premier livre en anglais, je me suis laissé convaincre et j’ai aussi commandé un exemplaire de cette bible des étudiants anglophones en cartographie, comment mentir avec les cartes. L’ouvrage raconte par le menu la manière dont les auteurs de cartes tordent volontairement ou involontairement la réalité, pour réussir à présenter ce qui les intéresse, en utilisant ces pratiques au service du lecteur, ou au contraire pour l’influencer.
Très simple d’accès, il reprend toutes les notions élémentaires de la cartographie, et est effectivement un ouvrage très pédagogique pour le débutant.
La ville, les humains, la nature
En prolongement de la cartographie, l’un des sujets d’intérêt que j’aime à explorer est la ville, ou la manière d’habiter. Évidemment, on en arrive aussi à parler de la nature.
Les abandonnés, histoire des « cités de banlieue », de Xavier de Jarcy
En suivant le compte Mémoire2Ville, j’ai découvert au hasard d’un échange ce livr ede Xavier de Jarcy, que j’avais déjà lu avec plaisir dans Le Corbusier, un fascisme français. Dans Les abandonnés, on parcourt l’histoire de l’établissement des grands ensembles chaque chapitre égrainant une année depuis les années 30 jusqu’aux années 70, pour évoquer la politique de l’état, poussée par les hygiénistes, tiraillée entre dépenses militaires et explosion de la natalité. On y apprend que contrairement à une idée reçue, la France a bien moins construit que ses voisins allemands et anglais à la sortie de la guerre, et comment la misère du logement ultra précaire a durée de nombreuses années malgré la construction de ces grands ensembles. On apprend aussi que pour 6000 logements, il était préconisé de ne pas implanter de bar, mais qu’une église, deux écoles, voire quelques commerces étaient plutôt envisagés. On découvre aussi que dans les années 50, on estime qu’une place de stationnement pour 5 foyers est largement suffisant, et que l’on préfère économiser en infrastructure de voirie en ne construisant que quelques voies principales, et en ajoutant des voies de désertes perpendiculaires, non traversantes. L’idée d’avoir de grands espaces verts pour que les gens s’épanouissent s’effondre rapidement avec l’arrivée de l’automobile pour tous, et de l’ennui causé par le peu d’équipements financés, ces cités dortoir ne proposant aucune activité, ni accès pratique aux quartiers équipés des centre-villes…
Où sont les « gens du voyages » ? inventaire critique des aires d’accueil, de William Acker
Twitter est un outil intéressant pour suivre des initiatives, des chercheurs, des communautés que les médias ne savent pas raconter. C’est ainsi que je suis William Acker, un juriste Voyageur. Son ouvrage Où sont les « gens du voyages » ? inventaire critique des aires d’accueil est à la fois très facile à lire, mais en même temps terriblement dur par les idées qu’il développe et qu’y y sont étayées de nombreuses références et exemples concrets. On y retrouve tout le racisme d’état, des citoyens et des collectivités locales envers les Voyageurs. À lire de toute urgence pour mieux comprendre beaucoup de choses que l’on entend parfois évoqué d’une manière tellement négative et non constructive par les médias.
Du rond-point au giratoire, d’Éric Alonzo
L’année dernière, j’avais adoré lire l’architecture de la voirie d’Éric Alonzo. Je n’ai pas réussi à résister à l’envie de lire son autre titre « du rond-point au giratoire », qui s’il partage quelques exemples et références avec le volume consacré à la voirie, entre bien plus dans les détails de l’histoire de ces infrastructures de croisements. À la fois historique, politique, signe de changements sociaux et de développement des techniques modernes d’urbanisme, le giratoire est raconté et illustré avec un superbe enthousiasme par Éric Alonzo.
Revue Habitante, numéro zéro
Les gens de la revue Audimat continuent leur chemin, en proposant le numéro zéro d’une revue que j’aimerais voir naître avec plaisir. Patchwork qui regarde la ville et la manière d’habiter, parfois sous l’angle de la fiction, parfois depuis l’article sociologique ou l’essai politique, il alimente la réflexion sur la manière d’habiter.
Arbres en péril, de David Happe
J’ai dévoré en quelques jours, Arbres en péril, de David Happe, qui raconte la trépidation de l’activité humaine vue depuis le rythme des arbres. On est foudroyés par l’état des lieux proposé par l’auteur, qui permet de comprendre les conséquences de toutes ces espèces que l’on classe maintenant comme en voie de disparition.
On comprend aussi la différence entre ces arbres domestiqués que l’on duplique pour l’agrément ou la culture des arbres sauvages, qui forment des forêts à l’écosystème riche, et non reproductible autrement qu’en les laissant s’établir dans leurs espaces initiaux.
Opération vasectomie : histoire intime et politique d’une contraception au masculin, d’Élodie Serna
Dès les premières pages d’Opération vasectomie, j’ai compris combien cette technique de contraception avait une dimension politique. Tour à tour brandit par les anarchistes comme un moyen d’émancipation face aux injonctions d’un système capitaliste, étatique et nataliste, puis par les hygiénistes et eugénistes comme un outil de contrôle de la reproduction des représentants du peuple, la vasectomie est encore considérée dans de nombreux pays comme une pratique courante, au service d’une contraception consciente et réfléchie.
Ce n’est pas vraiment le cas en France, où l’on retrouve encore dans l’ignorance collective de l’après traque des anarchistes, et de la fin d’une pensée ouvertement eugéniste.
Le pain
Depuis plus d’un an, j’explore la pratique de la boulangerie au levain. J’y ai d’ailleurs consacré un blog, où j’ai récemment proposé deux articles sur des lectures qui alimentent ma pratique et réflexion.
Notre pain est politique, les blés paysans face à l’industrie boulangère
Notre pain est politique, issu d’un collectif explorant des pratiques paysannes dans la culture du blé, sa transformation en farine puis en pain, et accompagné par la revue Z. Il permet de bien comprendre la différence entre le concept flou de blés anciens, et celui des blés population. Il raconte une pratique plein d’explorations, de recherches collectives et individuelles, qui construit un chemin alternatif à l’industrie agroalimentaire. Le groupe à l’origine de ce livre se réparti sur le territoire Auvergne Rhône-Alpes, et ça donne l’envie d’aller les rencontrer…
Le traité de boulangerie au levain, de Thomas Teffri-Chambelland
Il y a un an, j’avais parcouru le traité de boulangerie au levain, mais je le trouvais un peu trop théorique et loin de ce que je comprenais du pain. Après une année de pratique, je me suis replongé dedans, et j’y ai trouvé énormément de réponses à mes interrogations, et même des réponses à des questions que je n’avais pas encore réussi à formuler.
Deux volumes que je prendrai le temps de reconsulter régulièrement, je suis convaincu que j’y trouverai régulièrement de quoi alimenter mes réflexions.
Du handicap à l’accessibilité : vers un nouveau paradigme, de Frédéric Reichhart
Frédéric Reichhart présente dans ce livre assez technique la construction de la notion d’accessibilité dans les textes et dans la loi, en France. On découvre combien c’est à la fois une bataille de longue halène, semé de frileuses avancées légales, et souvent suivies d’aménagements pour assouplir les choses. Voilà comment cette question progresse très doucement, depuis les premières avancées liées à l’accessibilité des personnes à mobilité réduite (et la très puissante APF), jusqu’aux avancées plus récentes, permises notamment par les idées insufflées depuis les pays anglosaxons.
Des vies (presque) ordinaires, de Blandine Bricka
En échangeant autour du podcast de proche aidant que je publie, on m’a conseillé quelques lectures, comme les différents livres de Blandine Bricka. J’ai eu l’occasion d’en lire deux, construits comme des entretiens. Le premier, sous-titré « paroles d’aidants », présente une relative diversité de conditions, et raconte ces acteurs et actrices de l’ombre, parfois les seuls ponts entre les personnes en situation de handicap et le reste de la cité. Le deuxième, sous-titré « être accompagné au quotidien », présente le vécu de personnes concernées, bénéficiaires d’un accompagnement de la part de leurs proches, ou de personnes rémunérées pour cela. Une manière d’alimenter la réflexion sur ce vécu parfois complexe.
Deuxième saison de développement l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées récentes.
Après l’annonce de la saison 2 du développement du pictoparle, j’ai commencé doucement à corriger quelques points problématiques, notamment sur l’assemblage de la boîte. Mais les choses ont traîné, et j’ai un peu endormi le projet.
En mars 2021, deux de mes correspondantes ont exprimé leur envie d’utiliser Pictoparle pour faciliter la communication avec de possibles utilisatrices. Voilà qui redonne la motivation à améliorer l’outil, en suivant les recommandations identifiées en septembre.
La suite de cet article raconte les améliorations apportées à Pictoparle pendant cette deuxième année.
Amélioration de la fabrique de pictoparle
J’ai commencé par corriger quelques bugs repérés dans la dernière version publiée de la fabrique du pictoparle. En septembre, j’avais ajouté une seconde tablette aux matériels cible, mais je n’avais pas suffisamment testé cet ajout, et un certain nombre de fonctionnalités étaient cassées.
J’ai ensuite ajouté une fonctionnalité évoquée dans l’annonce de la saison 2, et proposée lors d’une discussion avec Jérémy. Lorsqu’on conçoit une planche, on peut exporter au format zip la planche pour l’intégrer à la tablette. Depuis quelques temps, on pouvait recharger dans l’éditeur un zip exporté, mais seule une partie de l’interface était rechargée. C’est maintenant toute l’interface d’édition qui est sauvée, y compris les configurations liées à la tablette, et à la fabrication de la couverture par découpe laser.
Enfin, les fichiers générés par la fabrique de pictoparle contiennent maintenant dans leur nom le modèle de tablette pour laquelle ils ont été conçus, afin d’éviter les erreurs d’étourderie lors de la fabrication du dispositif. J’avais eu une mauvaise expérience en septembre, en me trompant de modèle lors de la génération des fichiers pour la découpe laser de planches.
Amélioration des documents à imprimer
Une partie des documents générés pour la fabrication des planches est au format pdf, l’une des pages imprimable sur papier thermogonflé, l’autre pour impression papier avec le QRcode.
Pendant ce sprint, j’ai amélioré les informations ajoutées à la page destinée au QRcode, afin que le document contienne un maximum d’informations pour en faciliter l’usage. En particulier, il me semblait important d’avoir un maximum d’information imprimées, pour que les utilisateurs puissent tracer au mieux ce qu’ils font.
J’ai aussi modifié les informations affichées sur la page thermogonflée, pour que les voyants aient accès au nom associé à chaque pictogramme sans avoir à déclencher le son. C’est une fonctionnalité qui m’avait été demandée par des accompagnants occasionnels, afin de faciliter l’appropriation de l’outil par une nouvelle équipe.
Amélioration des fichiers de découpe de boîte
Quelques corrections ont été apportées suite aux nouvelles expérimentations de découpe réalisées en septembre. Ces tests avaient mis en évidence des erreurs d’alignements de crénelage pour la deuxième tablette introduite, et le besoin d’un mécanisme de détrompage, pour éviter des assemblages erronés.
Afin de faciliter la suite du développement, j’ai également fait un peu de réécriture de code. Cela fait, j’ai introduit des espaces et des chanfreins sur les crénelages pour faciliter l’emboîtage des éléments, l’un des points critiques identifiés au Débrouillo’Lab en septembre.
En suivant les autres remarques des beta testeurs du Débrouillo’Lab, j’ai ajouté une numérotation à graver sur chaque pièce, pour faciliter l’assemblage.
J’ai également corrigé quelques détails pour que l’assemblage des planches et de la boîte se passe mieux.
Amélioration de l’application
Lors des essais passés, j’avais à plusieurs reprises remarquer que lorsque les utilisateurs touchaient la tablette avec le bas de la main, tout en utilisant les doigts pour déclencher le son associé à un pictogramme du haut de la planche, les interactions étaient peu fiables. On rencontrait deux situations : soit la tablette devient complètement muette, soit ce sont les pictogrammes du bas de l’écran qui s’activent.
Ces problèmes sont intrinsèques à la technologie utilisée par les tablettes pour détecter les multiples appuis, et sont difficilement solutionnables. J’ai tout de même ajouté un filtre qui ne considère pas les double taps de bas d’écran dans le cas où un doigt touche le haut de l’écran. Ce n’est pas parfait, mais c’est déjà mieux que rien.
Prise en charge d’une nouvelle tablette
Lors de discussions passées, nous avions discuté avec Jérémy de la difficulté d’ajouter de nouvelles tablettes à l’application et à la fabrique. Il fallait en effet modifier plusieurs fichiers, sans que cela ne soit très bien documenté. J’ai donc pris le temps de modifier l’application pour qu’elle puisse intégrer facilement de nouvelles configurations de tablettes, en utilisant le même fichier au format XML que celui utilisé par la fabrique.
Cela m’a permis de rapidement intégrer une nouvelle tablette, qui sera prochainement mise dans les mains d’une nouvelle utilisatrice. L’équipe qui l’accompagne ayant prévu d’utiliser une coque de protection, j’ai également ajouté la possibilité de fabriquer la boîte et les planches en tenant compte de cette coque.
J’ai également amélioré l’ergonomie de l’application pour qu’elle propose au premier démarrage un menu permettant de sélectionner la tablette utilisée, afin d’avoir directement les bons réglages.
J’ai également pris le temps de rédiger une documentation pour faciliter l’installation et la configuration de l’application.
Conclusion
Avec les premiers utilisateurs extérieurs, je serai probablement amené à apporter des améliorations à l’application et aux outils de l’écosystème Pictoparle, afin d’en permettre l’adoption plus aisée. À suivre donc, car nous sommes à l’aube de la troisième saison de développement !
Je regardais depuis quelques temps avec grand intérêt le travail de Cécile Georges, une artiste qui travaille le son et l’image avec des procédés automatiques, explorant les défauts et les glitches des outils du numérique. En discutant avec elle, j’ai appris qu’il lui arrivait d’utiliser audacity pour charger une image au format bmp, afin d’appliquer dessus des algorithmes de traitement de son avant de sauver le fichier pour le visualiser. L’occasion de produire des distorsions, d’observer, d’expérimenter plein de choses. Son processus imposait des étapes de manipulation attentives, pour ne pas casser les entêtes du fichier image, cette partie qui permet de relire ensuite le fichier comme une image.
En discutant ensemble, on a convenu que ça pourrait être facilité, voire même que l’on pourrait proposer le chemin inverse : lire un fichier son depuis un logiciel de traitement d’images, lui appliquer là aussi des filtres et des effets, puis réécouter le fichier ensuite.
J’ai donc pris quelques jours, un week-end étendu, et j’ai écrit en python un logiciel, rawdodendron, qui permet de faire de la transformation automatique de fichiers audio vers image, et réciproquement. Le code source est bien sûr disponible en ligne sous licence libre, et j’ai produit une courte vidéo de démonstration, où l’on écoute un son modifié grâce à gimp.
Dans l’autre sens, on peut bien sûr convertir un fichier image en son, puis le modifier avant de revenir dans le visible.
Le logiciel est donc composé d’une interface où l’on peut glisser/déposer des fichiers, puis modifier les réglages de la conversion avant de générer les fichiers de l’autre modalité. L’interface est réglée pour automatiquement préparer la conversion inverse. Cela permet de faire de rapides allers/retours entre les deux modalités, pour expérimenter un maximum d’algorithmes différents.
interface de rawdodendron
D’un point de vue technique, l’outil manipule des images composées de pixels (png, jpg, etc), et des sons numériques (mp3, wav, flac, etc). J’en avais déjà parlé dans un article dédié à la synthèse de son additive, un son peut être modélisé par une série de pressions/décompressions, et la manière de le stocker numériquement est de le découper selon une fréquence très rapide (on parle par exemple de 44100 enregistrements par seconde pour le son d’un CD). On va alors stocker pour chacun de ces échantillons le degré de compression/décompression :
découpage en échantillons d’un son
Ce sont chacun de ces échantillons qui seront convertis en pixels avec rawdodendron. Car de la même manière que l’on code cette pression/décompression à l’aide d’un entier (compris entre ‑127 et 128 dans la version la plus simple), chaque pixel est codé par un entier entre 0 et 255 (dans sa version la plus standard). Rawdodendron va donc balayer l’image de gauche à droite puis de haut en bas, et traduire brutalement (d’où le raw de rawdodendron) les échantillons sonores en son, et réciproquement.
balayage de l’image, pixel par pixel, ligne par ligne.
Dans l’image ci-dessus, on voit bien que deux pixels qui sont adjacents peuvent se situer à de moments différents du son. La largeur de l’image (ici notée x) entraîne un genre de « repliement temporel », le pixel t étant adjacent au pixel t+x. On comprend donc que la largeur de l’image générée à partir d’un son soit un paramètre important, car souvent les filtres image modifient les pixels en fonction de leurs voisins, qu’ils soient sur la même ligne horizontale ou non.
Dans l’explication ci-dessus, je n’ai parlé ni du fait que les fichiers audio étaient souvent stéréo, et que les fichiers image n’étaient pas juste noir et blanc. Il y a donc 2 valeurs par échantillon de son, un pour l’oreille droite, l’autre pour l’oreille gauche. Sur les images, on a 3 valeurs (voire 4) pour chaque pixel, afin de composer le mélange rouge/vert/bleu (et parfois transparent). Le balayage va donc considérer chacune des valeurs de pixel avant de passer au pixel suivant, de même que considérer chaque canal audio de l’échantillon avant de passer au suivant. Cela peut entraîner des comportements peu intuitifs, et je conseille aux débutants avec ce logiciel de choisir des sons mono et des images en noir et blanc (et enregistrés en niveau de gris) pour réussir à comprendre un peu ce qui se passe.
Enfin, il est intéressant de noter que les formats mp3 et jpg, conçus chacun pour réduire la taille des fichiers en réduisant la qualité des données sans que cela ne soit trop perceptibles réduisent très perceptiblement les données dans l’autre modalité (le mp3 est particulièrement agressif à l’œil). Privilégiez donc les formats non destructifs comme la flac et ou le png.
Depuis quelques années maintenant, ma vie est en partie guidée par l’arrivée d’une maladie dans la vie de ma fille. Comme tout scientifique, j’ai pris du temps pour comprendre cette maladie, l’état des connaissances sur la question, puis j’ai œuvré à partager ces explorations avec un site consacré à la maladie de Batten, et avec une participation de plus en plus active à l’association Vaincre les Maladies Lysosomales. Cela a naturellement influencé mes activités de recherche, qui se structurent aujourd’hui autour de deux thématiques : la déficience visuelle avec Compas, et la prise en charge de la douleur avec esanté-mobilité.
Et bien sûr, cela a aussi influencé la manière dont on vit au quotidien avec ma fille. Après avoir initié un blog consacré aux adaptations du quotidien, j’avais besoin de partager mon expérience et mes réflexions sur cette place du proche aidant, et sur les conséquences d’une maladie génétique dégénérative.
Depuis bientôt deux ans maintenant, je réfléchis à la forme que ce témoignage pourrait prendre. Au tout début j’imaginais écrire un livre. Mais le temps passant, j’ai structuré tout ça sous forme d’un podcast. Entre l’envie initiale et l’objet fini, il a fallut du temps de maturation, de réflexion, d’essais et d’écoute de conseils. Et ça y est, les premiers épisodes sont prêts à être diffusés. Au moment où j’écris cet article, j’ai tourné 7 épisodes, et ils sont programmés à la diffusion, un par un, chaque mercredi à 12h. Bien sûr, j’ai encore plein d’idées pour de nouveaux épisodes, et j’espère pouvoir les tourner en continu, de sorte à maintenir ce rythme de publication pendant plusieurs mois.
Le podcast s’appelle donc « quand même pas, Papa ! », et on peut retrouver tous les épisodes sur le site du cri de la girafe. Voici d’ailleurs le premier épisode, en guise d’introduction à la série :
Cela fait plus de 10 ans que je suis enseignant-chercheur, avec comme statut celui de maître de conférences. J’ai été recruté au 1er septembre 2010 par ce qui était alors l’une des deux universités clermontoises, l’Université d’Auvergne. Au fil des années, les obligations nationales ont imposé une restructuration des universités à travers la France, entraînant à Clermont-Ferrand la fusion des deux universités, dont l’entité résultant est devenue l’Université Clermont Auvergne.
Les missions assurées par les enseignants-chercheurs
Quand on est maître de conférences, notre statut impose de devoir réaliser l’équivalent de 192 heures d’enseignement en travaux dirigés par an, ce qui correspond à environ la moitié du temps, si l’on considère que ces 192 heures face aux étudiants (voire plus si l’on donne des travaux pratiques) nécessitent beaucoup d’heures en plus, pour préparer les cours, préparer les examens, les surveiller, les corriger, accompagner les étudiants dans leur parcours universitaire, et participer à l’animation pédagogique de son département. De nombreux collègues prennent aussi des responsabilités pédagogiques, afin d’assurer le fonctionnement des départements, des formations, etc.
Ce statut implique également de passer l’autre moitié de ses 1607 heures par an à mener une activité de recherche, avec pour objectif principal retenu par l’employeur la publication d’articles scientifiques. Avec le temps, cette activité nécessite de passer de plus en plus de temps à construire des dossiers de candidature pour répondre à des appels à projets, afin de financer des postes de chercheurs temporaires (doctorants, post-doctorants), d’ingénieurs, mais aussi disposer des financements pour assurer l’équipement, les déplacements et les participations aux conférences nécessaire à cette activité de recherche.
Quand on obtient le financement de projets, il est ensuite nécessaire de passer du temps à recruter les candidats, à faire le suivi de leurs contrats, à les accompagner dans leurs activités de recherche, mais aussi à régulièrement rendre compte aux financeurs, parfois avec une fréquence très élevée. Il s’agit de tâches administratives qui peuvent être très consommatrices en temps.
Enfin, une mission de plus en plus souhaitée par nos financeurs et employeurs, mais rarement valorisée dans notre évaluation est la diffusion vers le grand public de ces activités de recherche, en d’autres termes de la vulgarisation.
L’une des conséquences de ces injonctions à assumer des missions aussi diverses est la pression sur les personnels, qui entraîne parfois un désengagement de certaines missions. Une mécanique classique, notamment dans les IUT, consiste à ne plus assurer sa mission de recherche pour pouvoir répondre aux besoins d’heures à assurer en enseignement, et de manière générale en accompagnement des étudiants. À titre personnel, je fais tout pour éviter cela, d’une part parce que je ne le souhaite pas, mais aussi parce que la mécanique financière associée à cela est une perte sèche pour l’université, qui paye alors au maître de conférence un salaire correspondant à un temps plein enseignement et recherche, salaire complété d’heures supplémentaires réalisées dans le temps normalement imparti à la recherche…
Des missions qui évoluent
Avec le désengagement régulier de l’état dans le financement des universités, les missions ont progressivement évolué. C’est quelque chose que j’ai pu régulièrement constater depuis 1999, date à laquelle j’ai commencé à fréquenter l’université comme étudiant. Je me souviens par exemple des discussions qui ont eu lieu au moment du passage de la loi LRU, qui a précipité les universités dans une concurrence fratricide pour l’accès aux financements, et plus récemment avec l’émergence des labels d’excellence (isite, idex, labex, …). Ces politiques ont poussé toutes les échelles de l’université dans un fonctionnement de mise en concurrence : concurrence de site, où chaque bassin tente de fédérer le maximum de structures supérieures pour pouvoir bénéficier des financements des ministères (les petites universités étant vouées à disparaître faute de moyens), concurrence entre laboratoires pour attirer les financements des collectivités locales, de l’état, de l’Europe, concurrence entre les formations, qui doivent toujours se battre pour exister, faute de financement suffisant assuré. Dans ce mécanisme, on ne donne qu’à ceux qui sont déjà. Difficile d’être un outsider. Pour maintenir un niveau d’activité, on doit constamment monter des dispositifs de plus en plus gros, sous peine de disparaître. On est bien loin de l’esprit du service public avec cette mise en concurrence globalisée, qui dissimule difficilement une réduction toujours plus importante des financements, malgré l’augmentation chaque année des fraîchement diplômés du baccalauréat. Et bien sûr, ce mécanisme maintient naturellement la ségrégation sociale, les publics défavorisés ne bénéficiant pas d’un accès aux universités réellement soutenues par l’état.
Difficile dans ce contexte de maintenir une activité dans l’esprit de service public et de missions de l’université, qui devrait être un lieu de partage des connaissances plutôt qu’une machine à produire des « ressources humaines ». En plus de cette concurrence constante, on constate en effet une injonction — notamment dans les petites universités — à dispenser un enseignement utilitariste pensé uniquement vers marché de l’emploi.
Mes activités d’enseignement
Au moment de la mise en place du Bachelor Universitaire de Technologie (BUT) en remplacement du DUT, il est temps pour moi de faire le point sur mes activités d’enseignement.
Comme je l’écrivais plus haut, j’ai été recruté comme maître de conférences en informatique dans un département de gestion des entreprises et administrations d’un Institut Universitaire de Technologie (IUT). Si lors de mon recrutement, je pensais y trouver l’espace pour exercer mon activité d’enseignement, j’ai très vite déchanté. J’ai bien sûr pu assumer l’enseignement orienté sur ma discipline, avec un module de bases de données, mais au delà de ça, on n’a pu me proposer que des modules de mathématiques et statistiques, que j’ai assumé au début, et les modules de bureautique pour lesquels je n’ai aucune compétence, car Microsoft Word n’est pas LaTeX, et Microsoft Excel n’est pas python. Comme je l’écrivais il y a peu sur twitter, ce n’est pas parce que ton métier est de concevoir des trottinettes électriques que tu seras légitime à enseigner la conduite automobile. Mes compétences se placent au niveau de la science informatique (section 27), et je ne me considère pas compétent ni légitime à enseigner l’usage d’outils tels que les Progiciels de Gestion Intégrés dont j’ignore totalement le fonctionnement et enjeux de gestion et d’administration.
Au fil des années, j’ai donc été sollicité dans différentes formations pour assumer des enseignements plus proches de mes sujets de compétence, et où il manquait des intervenants à l’université. J’ai ainsi pu assumer au fil du temps l’animation de modules d’algorithmique, de géométrie et de traitement d’images, de bases de données, ou encore de gestion de projets informatiques. Plus récemment, j’ai également complété ces interventions par l’animation d’un atelier du Service Université Culture sur l’audiodescription, une pratique peu répandue mais très recherchée. Je me sens aujourd’hui bien plus légitime à assurer ces enseignements dans des filières universitaires ou d’école d’ingénieur que d’assurer ceux en GEA.
Les évolutions des missions d’enseignement
Ces dernières années, plusieurs phénomènes annoncent des évolutions notables dans ces activités d’enseignement.
Tout d’abord, avec la réduction constante des moyens attribués à l’université pour qu’elle assure l’enseignement de chaque étudiant, et les décisions politiques qui entraînent une précarisation toujours plus importante des personnels enseignants, la tension est palpable dans les départements : manque d’heures de permanents pour assurer les enseignements, pression à assumer des heures supplémentaires en nombre déraisonnable, contrainte à assumer des missions administratives toujours plus importante, et sans compensation ou presque. Si l’on ajoute à cela la pression associée à une évaluation quadriennale, et une opinion publique qui n’apporte plus le même crédit à ces activités du supérieur, on peut comprendre que les collègues perdent progressivement toute motivation à un engagement fonctionnaire.
Ensuite, les réformes successives de l’enseignement secondaire, avec les nouvelles modalités d’évaluation par compétence, la mise en place du nouveau baccalauréat avec un choix précoce des disciplines principales, et le maquillage de cette précarité de moyens par une application Parcoursup au fonctionnement ubuesque annoncent un avenir très très incertain pour des filières comme le BUT GEA. En effet, contrairement aux autres départements de l’IUT plus orientés vers des compétences techniques bien ciblées, l’enseignement proposé en GEA est plutôt généraliste, préparant au monde de l’entreprise au sens large, sans que l’étudiant ne soit nécessairement intéressé et impliqué à l’apprentissage de savoir-faire spécifiques. Au fil des années et des échanges avec les étudiants, j’avais compris qu’une large majorité d’entre eux choisissaient ce département par défaut, parce qu’il était généraliste, et permettait de ne « perdre aucune matière » parmi celles enseignées au lycée. Exception faite de celles et ceux convaincus qu’ils sont intéressés par la paye, les ressources humaines ou la comptabilité, une écrasante majorité de ces jeunes choisissent GEA comme un moyen d’attendre d’être en âge de rentrer dans le milieu professionnel. Ils espèrent bien sûr trouver une voie qui les mènera à une situation financière confortable, mais n’ont pas spécialement de motivation à suivre les cours proposés (combien de fois ai-je entendu « mais monsieur, on n’a jamais vu ça avant », comme s’il ne s’agissait que de réchauffer encore et toujours les mêmes enseignements du secondaire).
Avec les changements notamment du nouveau bac, les choix de matières ayant déjà été faits au fil du lycée, la filière GEA perd son statut de continuité sans changement. Si l’on ajoute à ça les injonctions des rectorats à ce que les IUT intègrent de plus en plus de bacheliers des filières technologiques, aux capacités très réduites à s’intéresser aux notions théoriques, on annonce une filière GEA encore moins universitaire, toujours aussi peu technologique, et donc définitivement salle d’attente du monde du travail.
Mes activités de recherche
Après quelques années à tenter de trouver ma place dans un laboratoire de recherche en sciences informatiques pour la santé, j’ai rejoint en 2016 le LIMOS, laboratoire d’informatique du site clermontois.
Après quelques années à y chercher ma place, j’ai finalement développé ma propre activité de recherche sur les problématiques associées à l’espace urbain et à la déficience visuelle, en construisant l’écosystème Compas dont j’ai parlé dans une récente vidéo. En parallèle, j’ai développé avec plusieurs collègues un axe de recherche autour de la thématique de la santé connectée pour la sédentarité, l’occasion de tisser des liens avec plusieurs laboratoires et instituts locaux.
La page consacrée à aux collaborations sur mon site professionnel liste les différents projets dont j’ai obtenu le financement, soit en tant que porteur principal, soit en tant que représentant du LIMOS dans le projet. Difficile de percevoir pour qui n’est pas expert les défis que cela implique, avec des taux d’acceptation très faibles. À titre d’exemple, seuls 16% des projets présentés à l’appel à projet ANR blanc finissent par décrocher un financement.
Ces deux dernières années, les choses se passent plutôt bien pour moi, c’est ainsi plus d’un million d’euros que j’ai participé à ramener au LIMOS et à ses partenaires pour financer du matériel, du personnel, des déplacements, des publications, etc. Les choses se mettent doucement en place, les jeunes chercheurs rejoignent les deux projets compas et esanté-mobilité. Ces prochaines années seront l’occasion de nombreuses publications, et de communications de vulgarisation autour de ces projets. Quand les choses s’enchaînent ainsi, il est de plus en plus difficile de prendre du recul pour se rappeler que ce mode de fonctionnement de la recherche, avec mise en concurrence des chercheurs, n’est pas satisfaisante. On se prend au jeu des dossiers de candidature, en apprenant à présenter les choses « pour que ça passe », en racontant ce que les financeurs ont envie de lire, sans sacrifier dans ces propositions nos envies et sujets d’intérêts scientifiques.
Être enseignant-chercheur en temps de COVID
La pandémie et l’obligation de confinement qu’elle impose depuis plus d’un an a bien sûr changé les pratiques de ce métier. J’ai énormément enseigné à distance cette année, et j’ai essentiellement mené mes activités de recherche à distance. C’était déjà une pratique familière pour moi, car déjà avant le COVID j’aimais gagner du temps dans la journée en évitant des déplacements inutiles.
En recherche, nous avons collégialement pris cette habitude de communication à distance (visio, chats, etc), ce qui a contribué à souder des liens forts et quotidien au sein des équipes de recherche, qu’elles soient éloignées ou non. Ça a réellement été une très bonne année en recherche, car j’ai pu avancer sur plein de sujets, et j’ai pu prendre le temps d’échanger avec beaucoup de partenaires, tout en continuant de monter des projets pour obtenir de nouveaux financements.
En enseignement, j’ai ressenti de plus grandes frustrations des enseignants et des étudiants, certes à cause des conditions, mais aussi parce que le métier est complètement modifié par l’usage de ces techniques numériques, et que nous ne sommes pas tous à pied d’égalité face à ces pratiques. On espère bien sûr un prochain retour à la normale, mais je garderai tout de même en tête que l’enseignement à distance a permis des échanges parfois très riches avec certains étudiants, et qu’il pourra faire partie des outils à solliciter.
Depuis quelques années maintenant, je mets en place plusieurs projets de recherche, qui s’assemblent aujourd’hui de manière assez cohérente au sein de l’écosystème Compas.
À l’occasion d’une conférence organisée par Florence Faberon à l’Université de Guyane, j’ai réalisé une vidéo de 20 minutes qui présente ces différentes activités de recherche.
Dans un précédent article, je racontais une manière de s’adapter à l’enseignement à distance. Certains de mes collègues ont complété en commentaire de l’article, décrivant leurs pratiques, et je les en remercie.
J’utilise donc GNU/Linux, mais pour diverses raisons c’est le logiciel Teams de Microsoft qui est mon outil quotidien d’enseignement. Que ce soit cet outil ou un autre, il est souvent difficile de faire écouter aux personnes qui participent à la séance le son d’un autre logiciel. Dans ce nouvel article, je vous raconte comment faire cela, mais aussi comment envoyer les voix des personnes qui participent dans tout autre logiciel.
Exemple d’utilisation
Nous animons depuis trois ans avec ADVOX et pour le Service Université Culture de l’UCA un atelier d’audiodescription. Cette année, conditions sanitaires obligent, il se déroule à distance.
Dans cet atelier, on explore avec les personnes participantes tous les aspects de l’audiodescription, depuis l’analyse filmique jusqu’au montage et mastering, en passant par l’écriture et l’enregistrement.
Voici un court extrait d’une séance ou l’une des personnes qui participe à l’atelier dit depuis chez elle l’audiodescription. C’est mon ordinateur qui enregistre, puis je réalise le montage, guidé par les participantes et participants. Enfin, on écoute le résultat.
enregistrement d’une version de travail de l’audiodescription d’un court-métrage (5,80 mètres)
Le logiciel que j’utilise ici est Reaper. Tout comme Teams, ce n’est pas mon outil quotidien, mais nous avons fait ce choix pragmatique car c’est un logiciel gratuit (en version d’essai infinie) sur tous les systèmes d’exploitation, et il est massivement utilisé, notamment par les radios locales. Ce que je raconte par la suite fonctionne parfaitement avec n’importe quel logiciel de montage son, comme Ardour ou Audacity par exemple.
Pour cet usage, j’ai donc deux besoins distincts :
faire entendre et voir aux personnes présentes le logiciel de montage son
enregistrer dans ce logiciel ce que disent les personnes présentes.
Un autre exemple d’utilisation pourrait être l’enregistrement d’interviews à distance, pour lesquelles j’ai précédemment proposé un état des lieux des possibilités.
Dans la suite, je vous propose deux solutions, dans l’ordre où je les ai essayées. Ma préférence va à la seconde, mais vous pourriez avoir besoin d’utiliser la première. Bien sûr, tout cela marche sous GNU/Linux, et il faudrait trouver des équivalents sur les autres systèmes d’exploitation. Il me semble que la deuxième solution est possible.
Première solution avec Pulseaudio
Depuis quelques années maintenant, Pulseaudio est le serveur de son utilisé par les bureaux et distributions majeures sous Linux. Son rôle est de permettre à l’utilisateur de choisir pour chaque logiciel vers quel sortie son il va envoyer le son, à quelle intensité sonore, etc.
C’est le compagnon idéal du quotidien, qui me permet par exemple d’écouter une conférence dans le casque branché sur mon ordinateur pendant que ma fille écoute une histoire audio sur l’enceinte Bluetooth connectée au même ordinateur.
j’écoute radiocratie.com dans Firefox en utilisant une carte son AudioBox.
Il faut un peu jouer d’astuce pour réussir à diriger du son entre logiciels grâce à Pulseaudio. Le principe consiste à créer des cartes son virtuelles. Pour réussir ça, il faut lire la doc et utiliser quelques lignes de commande bien senties, ou utilise le petit script conçu par Arnaud Venturi, après l’avoir édité pour qu’il corresponde à nos besoins. Arnaud propose le schéma suivant pour raconter comment cela fonctionne :
un microphone, un mplayer et une vidéoconférence, le tout connecté grâce à deux cartes son virtuelles pour mélanger des sons en entrée et en sortie de la vidéoconférence.
Dans son utilisation, Arnaud utilise mplayer pour faire écouter un film à son auditoire en vidéoconférence. Le son de mplayer est déparé en deux grâce à une carte virtuelle, puis envoyé à la fois dans les enceintes et dans une seconde carte son. Cette seconde carte son intègre le son de mplayer celui du micrphone pour envoyer le tout dans la vidéoconférence.
Cette première approche permet de résoudre l’une de mes problématiques, mais il faudrait aller un peu plus loin pour récupérer aussi le son de la vidéoconférence à l’aide d’une autre carte son virtuelle pour l’envoyer dans un logiciel de montage son, si on voulait enregistrer la voix des personnes qui participent à la visio.
Deuxième solution avec le serveur jack
Le serveur jack est aussi un serveur de son dont l’objectif est de se rapprocher du temps réel. C’est LE serveur de son de celles et ceux qui font du montage son ou du son en temps réel sous GNU/Linux. Il est aussi disponible pour MacOS X et Windows, mais je ne je n’ai jamais essayé sur ces plateformes.
Pour lancer jack, j’utilise Cadence, une des applications proposées par KXStudio, qui propose notamment un pont direct avec Pulseaudio. On laisse donc toutes les applications courantes (navigateur, lecteur son, logiciel de visio) se connecter à Pulseaudio, et le pont (bridge en anglais) se charge de faire communiquer ces logiciels avec ceux qui vivent du côté de jack, en temps réel.
Le principe consiste ensuite à utiliser le logiciel de montage son en le connectant à jack (c’est comme ça qu’il marche le mieux), puis à utiliser les facilités de jack pour router le son entre ce logiciel et le pont pulseaudio. J’utilise pour ça le l’interface Catia, qui facilite grandement ces branchements. En quelques clics glissés, on connecte nos logiciels.
connexion dans Catia (jack) de Reaper aux ponts Pulseaudioroutage du son dans jack pour écouter et enregistrer en visio
Le dernier détail consiste à régler le logiciel de visio sur les entrées et sorties qui correspondent au pont vers jack depuis Pulseaudio :
sélection de jack sink comme haut-parleur, et jack source comme micro dans Teams
Cette solution est très flexible, on peut imaginer plein d’autres solutions de routage. Attention cependant, si votre logiciel de traitement de son est réglé en mode playback durant les enregistrements (c’est-à-dire qu’il rejoue le son qu’il enregistre), les personnes à distance entendront le son en double. Dans ce cas, au moment de l’enregistrement, il est important d’enlever temporairement le lien de son sortant de Reaper vers Pulseaudio.
Bien sûr, tout ce que j’ai écrit ici fonctionne parfaitement avec Ardour et jitsi par exemple, si l’on veut utiliser une solution 100% libre.
Voilà maintenant bientôt une année que l’on a pris l’habitude forcée de se rencontrer virtuellement. C’est toujours quelque chose d’un peu déroutant, voire pesant, quand il s’agit de moments que l’on aurait voulu vivre « en vrai ». Je me souviens de ce petits moments de gêne quand on se retrouvait en famille ou pour des échanges avec les copains et les copines, parce que tout le monde n’avait pas la même aisance avec l’outil.
Évidemment, quand on enseigne, c’est pareil. On n’a pas forcément la pleine maîtrise des outils que l’on doit solliciter pour animer un cours à distance, ni la maîtrise des conditions matérielles nécessaires. Les étudiants et étudiantes non plus n’ont pas forcément l’environnement propice, ni l’aisance technique pour trouver leur chemin dans cette nouvelle manière de partager.
En une petite année, j’ai adapté ma pratique, puisé dans différentes expériences passées, adapté, imaginé les choses. C’est venu assez vite finalement, et je pense avoir suffisamment réfléchi et expérimenté pour faire un premier retour d’expérience ici.
Ce qui alimente ma pratique
Depuis mon entrée à l’université, de nombreuses activités associatives, étudiantes et professionnelles m’ont amené à utiliser les outils du numérique et d’internet. Bien sûr en tant que participant actif, avec les listes de diffusion, les espaces de discussions textuelles en direct (IRC, chats, discord, etc.), avec les outils de rédaction collaborative (wikis, etherpads, documents partagés, etc) et les outils de dessin collaboratif, mais aussi avec des espaces de vulgarisation, comme ce blog par exemple. C’est aussi comme spectateur régulier de chaînes YouTube de vulgarisation (mais pas que), et plus récemment des pratiques de vidéo en direct, notamment sur la plateforme twitch que je me suis approprié des mécanismes d’animation de vidéo.
De ces expériences émergent naturellement des réflexes, une culture (celle de la netiquette par exemple), une facilité à penser un contenu multimédia.
Mais peut-être plus fondamentalement encore, plus de dix années de pratiques radiophoniques m’ont amené à progressivement penser mes enseignements comme des émissions de radio, en utilisant nombre de mécanismes d’animation, de structuration, de construction de séances.
Pendant Utopie Sonore. Photo : Clém Ence.
La bascule en enseignement à distance m’a amené à réunir et consolider toutes ces pratiques avec un seul objectif : rendre la modalité d’enseignement à distance la moins douloureuse pour mes étudiants et étudiantes, en leur proposant le format le plus adapté que je pouvais à la situation.
Dans la suite de ce texte, je vous propose quelques réflexions, développements et idées de pratiques issues de cette consolidation. C’est bien sûr intimement lié à ma pratique des outils numériques, et assurément il existe plein d’autre manières de faire.
La relation aux étudiants et étudiantes
À l’arrivée dans nos vies quotidiennes de la visio universelle, nombre étaient les personnes à souffrir de la dimension déshumanisante du dispositif. Il est certain que les pratiques de la vie réelle sont énormément imprégnées d’éléments de communication non verbales qui facilitent la compréhension, aident à construire des liens, à faciliter les échanges.
Avec les enseignements à distance, il est indispensable de trouver des mécanismes pour remplacer ces facilitateurs de transmission. L’un des enjeux de cette problématique consiste pour moi à créer les conditions pour que toutes les personnes qui participent à un échange par visio aient conscience qu’elles sont toutes des humaines et des humains qui s’approprient des outils et des mode de fonctionnement ensemble.
Les mécanismes de narration, d’usage de l’image, du son et des modalités participatives sont je crois des ingrédients importants de cette ré-humanisation, et je prendrai le temps de les développer plus bas.
Mais plus encore, je suis convaincu que la distance imposée par les écrans ne peut qu’amener à des mécanismes d’humilité, à l’opposé des pratiques que l’on rencontre parfois dans les amphis où un cours magistral est déroulé depuis une position de sachant absolu. Alors bien sûr, le sujet que l’on porte en cours est un sujet que nous maîtrisons, et il s’agit de transmettre aux étudiants et étudiantes notre expertise. Mais il ne faut pas cacher tout ces petits détails d’approximations liés aux outils (après tout, un enseignant grogne quand une craie se casse au tableau noir, l’analogie est de ne pas dissimuler un petit bug). Au delà de ça, il faut aussi accepter l’idée que les participants et participantes aient accès, en même temps que la séance se déroule, à des moteurs de recherche qui leur permettent d’explorer les connaissances humaines sur le sujet que l’on développe. Considérer cela me semble indispensable. L’intégrer dans sa pratique pédagogique est une piste intéressante, qui pousse naturellement à l’animation de séances avec modalités participatives (j’en reparlerai plus bas).
Finalement, on se retrouve dans la situation de celui ou celle qui apprend à apprendre. Plutôt que de déverser un savoir dans un flux unidirectionnel, nous sommes poussés à transmettre notre manière d’explorer un sujet nouveau. C’est alors l’occasion de partager une des expertises que nous avons en tant que chercheurs et chercheuses, celles d’être des experts de la construction de synthèses, de la vision d’ensemble de l’existant.
Voir et faire voir
La configuration de travail qui me semble indispensable à l’animation d’une séance réussie intègre (au moins) deux écrans.
Le premier sera l’écran partagé, celui que l’on montre aux personnes qui assistent à la séance. Il ne contient rien qui puisse déranger la vue, pas de barre de menu, pas d’icônes. C’est un tableau vierge, sur lequel on va venir présenter des documents.
Le second écran sera nos coulisses. Il contient à la fois le logiciel de visio et nos notes de cours personnelles. Il est indispensable d’avoir régulièrement son regard qui glisse vers la fenêtre du logiciel de visio, car les participantes et participants peuvent utiliser le chat pour intervenir à l’écrit, ou utiliser les mécanismes de main levée pour demander la parole s’ils n’osent pas le faire directement. Je décrirais plus tard les techniques que j’utilise pour solliciter ces retours, et ainsi avoir une séance vivante.
Les notes de cours ne sont pas obligatoires si on a bien en tête son déroulé, mais il m’arrive aussi d’animer des séances avec d’autres intervenants et intervenantes, et il est alors indispensable d’avoir un déroulé de séance rédigé pour réussir à garder une bonne synchronisation (cela nécessite plus d’attention que quand on est dans la même salle).
capture d’écran d’une séance de TP consacrée à la géométrie algorithmique. Écran du haut : l’interface de blender avec un script python en cours de rédaction. Écran du bas : la fenêtre de Teams, l’outil de visio que l’UCA nous demande d’utiliser.
Sur l’écran que je partage avec les participantes et participants, il y a toujours ou presque quelque chose d’affiché. Soit j’utilise un support de cours préparé à l’avance, soit j’utilise un logiciel de dessin (j’aime bien mypaint et son image virtuellement infinie), avec une tablette graphique pour noter les points principaux, exactement comme je le ferai au tableau dans une salle, soit j’utilise un éditeur de texte pour prendre des notes structurées. Je navigue d’ailleurs très souvent entre un support préparé à l’avance et un document que je construis devant leurs yeux, et que je leur enverrai à la fin de la séance.
exemple d’images dessinées pendant une séance de géométrie algorithmique
Bien sûr, je rappelle aux étudiants qu’ils se doivent de prendre des notes, car les documents écrits que je partage avec eux ne sont pas complet, on dit des choses qui ne sont pas écrites. Cependant, je n’ai pas envie qu’ils perdent de temps à faire des captures d’écran de ce que je projette, donc j’essaye de partager avec eux tout ce qui est passé par l’écran, ou j’utilise le copier/coller dans le chat de la visio, par exemple pour les liens des sites projetés.
J’utilise aussi facilement un moteur de recherche, wikipédia, etc. pour connecter ce dont je parle au reste des supports qu’ils pourront retrouver ensuite. Et j’utilise souvent des outils collaboratifs, j’en parlerai plus bas.
Se faire entendre
Que ce soit sur les chaînes Youtube, dans les émissions de radio, ou même dans une salle d’amphi, je trouve que l’élément fondamental pour suivre un exposé, c’est de bien entendre l’orateur. C’est sans doute une déformation liée à une pratique radiophonique régulière, mais je prends un grand soin à proposer une captation sonore la plus propre possible à mes étudiants et étudiantes. J’utilise donc un micro dynamique destiné à la voix, souvent utilisé sur scène (en l’occurrence un AKG D5, moins cher mais assez équivalent à l’incontournable Shure SM58), et une carte son externe pour régler au mieux la prise de son et le retour casque.
Car oui, pour éviter tout écho désagréable, il est indispensable de porter un casque quand on fait de la visio. Si on ne le fait pas, le logiciel de visio doit utiliser des algorithmes de filtrage pour que le son reste audible, et ça entraîne de grosses baisses de qualité…
un micro, une carte son
J’installe mon micro sur un pied, équipé d’une bonnette, et il pointe vers ma bouche sans être exactement dans l’alignement pour éviter tous les problèmes de saturation des plosives.
L’intérêt principal des petites cartes son comme celle que j’utilise, c’est qu’en plus d’entendre dans le casque les sons qui viennent de l’ordinateur, on peut doser la proportion de son en provenance directe du micro. Comme à la radio, je dose les retours afin de m’entendre à peu près au même niveau que quand les étudiants et étudiantes parlent. Ça me permet de placer ma voix, de m’apercevoir si je ne parle pas assez fort, ou encore de moduler conjointement la proximité du micro et l’intensité de ma voix pour changer d’intention. C’est aussi un moyen très pragmatique de réduire l’impression de parler dans le vide.
Passer régulièrement d’une voix posée et proche du micro à une voix plus puissante et éloignée du micro permet de casser la monotonie, d’associer une intention aux différents moments de la séance… Comme à la radio, les étudiants et étudiantes nous entendent souvent sans nous voir (s’ils regardent un document que l’on partage). Il est donc essentiel de marquer les intonations, de jouer son personnage, de placer un sourire dans sa voix, pour faciliter l’écoute.
Animer une séance
On retrouve dans les live Facebook, Youtube ou Twitch, dans l’animation d’une émission de radio et l’animation d’un cours des pratiques communes, notamment dans les interactions avec les participants et participantes, et dans les mécanismes de préservation de l’attention. Ce sont ces mécanismes, au service des étudiants et des étudiantes, qui me semblent aujourd’hui les plus intéressants à déployer pour leur permettre tout l’épanouissement possible dans cette situation confinée.
Tout d’abord, je fais mon possible pour démarrer la visio au moins 5 minutes avant le début du cours, tout comme j’ouvre ma salle un peu en avance, et laisse le temps aux jeunes de s’installer. Dans ces moments-là, je ne laisse pas le silence s’installer, je commence des discussions informelles avec les premiers et premières arrivées, en leur offrant la possibilité de discuter notamment de leurs conditions d’études, mais aussi en partageant les informations universitaires qui auraient pu leur échapper. Je laisse doucement tout le monde arriver, puis quand la majorité est là, je commence la séance, en rappelant le sujet du cours, les points abordés les séances passées, en replaçant la séance dans une continuité. Je prends le temps d’une présentation du déroulé de la séance, pourquoi pas d’un rappel des modalités d’évaluation et des séances importantes à venir. Je n’hésite pas à les interroger sur les conditions du déroulé du cours, pour ajuster éventuellement les choses.
Pendant la séance, de manière générale, j’essaye d’avoir au moins toutes les 2 à 5 minutes un retour des étudiants et étudiantes, en leur demandant de répondre à l’écrit ou à l’oral. Chaque groupe, chaque formation a son mode opératoire. Les plus à l’aise, souvent en petits groupes, vont allumer leur micro (parfois leur caméra, et c’est cool) pour poser une question ou répondre à une des miennes. Parfois, ils répondrons à l’écrit, voire avec un like sur la réponse d’un camarade.
Pour pousser à la participation, je dose entre questions ouvertes et questions fermées, suivant leur degré de réactivité. Si j’ai envie d’avoir des réponses plus collégiales, j’utilise les mécanismes de sondages instantanés que proposent les plateformes de visio.
Et puis je fais très attention à rebondir sur chacune de leurs interventions, par exemple en notant leurs idées sur le tableau virtuel que j’alimente, en mettant en évidence la diversité de leurs réponses, en précisant si nécessaire. Quand une réponse écrite me semble intéressante, je demande à l’auteur s’il est d’accord pour la développer pour ses camarades à l’oral.
Sauf exception, en aucun cas je ne pousse à la participation. Je propose des modes d’interaction, en essayant de ne pas présumer des possibilités techniques et matérielles des étudiants.
J’essaye aussi de changer régulièrement au fil de la séance la forme que prend l’intervention : discussion collective, discours plus professoral, construction d’un raisonnement par le dessin, exploration d’une problématique sur un moteur de recherche spécialisé, etc. Et quand je sens que c’est trop long, je propose une pause de quelques minutes. Je suis convaincu que ces mécanismes sont indispensables pour que l’expérience ne soit pas trop désagréable. Les silences que je laisse à l’antenne sont donc maîtrisés, annoncés. Le reste du temps, je fais attention à ce que l’espaces sonore soit bien alimenté, sans pour autant être un flux monotone et régulier. Il s’agit de penser au rythme, comme dans une émission.
Enfin, la toute fin de la séance est le moment d’une synthèse de ce qui a été exploré dans la séance, pour la replacer dans la continuité des séances du cours. Si l’organisation me le permet, j’essaye aussi de rester quelques minutes de plus après la fin du cours pour échanger de manière plus informelle avec les étudiants et étudiantes, afin de fluidifier ces échanges qui sinon pourraient être trop formels.
Travaux en groupe, outils collaboratifs
Quand la matière et la modalité d’enseignement le permettent, je propose régulièrement aux étudiants et étudiantes de travailler en groupe. Soit pendant toute la séance si c’est un TP, soit pendant de petites plages de 10 ou 15 minutes. Je commence quasiment toujours la séance par une visio collective, puis les participants et participantes sont répartis en groupe. Chaque groupe rejoint un canal de discussion séparé, et y lance une visio. Ils peuvent alors partager leur écran, discuter, travailler à un document commun. Quand ces activités en groupe sont lancées, je circule alors virtuellement de groupe en groupe pour aller échanger directement avec eux. Ce sont des moments très conviviaux, où ils se sentent plus libres de poser les questions, ou ils expérimentent, échangent…
Évidemment, dans ces moments-là les outils collaboratifs deviennent indispensables : framapad et son etherpad, hedgedoc, l’instance OnlyOffice de notre université pour rédiger, mais aussi excalidraw pour dessiner, ou plus spécifiquement slack, github, … Ce ne sont que quelques exemples mais qui me paraissent indispensables à un travail en groupe à distance, en plus de l’incontournable partage d’écran. Si je sens les participantes et participants peu agiles techniquement, je commence par une démonstration des outils en partageant mon écran, mais souvent ils sont autonomes.
Les retours en séance plénière permettent aux groupes de partager leurs explorations, de mettre en commun, etc.
Interagir hors des séances
Je trouve aussi intéressant de profiter des outils de messagerie, des ENT ou des courriels pour prolonger les échanges en envoyant après la séance des compléments d’information, des liens qui auraient pu manquer, et bien sûr en les invitant à me contacter pour toute demande, pour tout échange supplémentaire.
Cette continuité me semble indispensable, mais je veille à éviter de leur imposer un engagement, en proposant sans juger celles et ceux qui ne répondent pas, et en proposant un volume d’activités raisonnable.
Est-ce que ça marche ?
J’ai expérimenté ces différentes idées à plus ou moins grande échelle suivant les formations, l’âge des étudiants et étudiantes, le nombre de participants aux séances. J’ai ainsi expérimenté des groupes de 10 à 120 personnes, dans des formations variées, comme l’IUT, des masters, une école d’ingénieur, un atelier du SUC, … Parfois ça marche hyper bien, souvent j’ai l’impression que c’est correct. Parfois j’ai l’impression que c’est un peu raté, et je réfléchis à ajuster les choses pour les séances suivantes. C’est une expérimentation continuelle, mais finalement comme toujours en enseignement !
Être enseignant, c’est toujours s’adapter aux besoins des étudiants et étudiantes, s’adapter et aux circonstances, aux nouveautés, à la société qui évolue, à l’évolution de notre propre regard sur notre discipline… Enseigner avec les outils numériques, c’est pour moi une continuité dans cette adaptation, un défi qui nous est lancé, et que je trouve riche d’apprentissages.
Je suis convaincu que cet environnement est en train de changer ma manière d’enseigner, dans un sens qui me plaît, en plaçant encore plus l’étudiant et l’étudiante au centre de la démarche. Le jour où l’on reprendra durablement le chemin de l’université, je suis convaincu que j’aurai du mal à me passer des mécanismes et techniques que j’aurai exploré.
Peertube et seipa search, l'alternative réaliste à Youtube
Hier avec les copains et copines du cri de la girafe, on travaillait sur notre prochaine émission. Au fil des discussions, on a beaucoup parlé de la place que prennent les technologies dans nos quotidien. S’opposaient alors deux points de vue : d’un côté on entendait que ces techniques sont l’outil de contrôle des puissants et il faut s’en débarrasser, et de l’autre il se disait qu’il est possible de se réapproprier collectivement la technique pour choisir comment on l’utilise.
Évidemment, vous l’aurez compris, je suis partisan de la deuxième équipe, celle qui croit que la meilleure manière de lutter contre l’emprise des GAFAM (les géants du Web : Google, Apple, Facebook, Amazon et Microsoft) passe par une mise en commun des savoirs, et par une réappropriation collective de ces techniques. Évidemment, c’est une question complexe. Mais le mouvement du logiciel libre, de l’éducation populaire, ou encore des réseaux d’AMAP permet ça : se structurer pour que celles et ceux qui explorent un sujet puissent en faire profiter les autres, en toute transparence, en donnant les moyens aux autres de s’approprier ces outils et techniques s’ils le souhaitent.
S’affranchir des GAFAM
Alors bien sûr, on peut faire tout ça sans utiliser ni ordinateur ni internet, en utilisant des fanzines, en s’échangeant localement les savoir-faire, en ayant des colporteurs de connaissances qui traversent le pays. Mais l’outil internet existe. Et mieux, il a été conçu dès ses débuts pour être un espace d’échange sans contrôle central. Alors bien sûr, les GAFAM mettent aujourd’hui bien à mal ce mécanisme. Heureusement, régulièrement des initiatives naissent pour redonner à l’internaute l’indépendance, et redonner le contrôle au collectif.
En France, on peut saluer le travail de la quadrature du net, qui agit politiquement et légalement au quotidien pour protéger les libertés individuelles, et par là même l’idée originale de ce réseau d’échanges de connaissance. Et puis bien sûr, il est impossible de ne pas s’arrêter sur l’énorme travail de Framasoft, qui agit de manière concrète pour proposer des outils de dégooglisation d’internet, ou plus généralement d’indépendance aux GAFAM, et à leur internet décérébrant.
Quels outils numériques pour la diffusion de connaissance
Parmi les outils usuels que l’on utilise pour se partager de la connaissance sur internet, il y a pendant longtemps eu IRC, dont les usages ressemblent à la manière dont on utilise aujourd’hui discord ou twitch, les forums, remplacés progressivement dans les usages par les groupes facebook.
Mais une très grande partie de l’apprentissage autonome passe par l’usage des vidéos. Youtube est évidemment aujourd’hui LA plateforme incontournable pour ces partages de connaissance, ce qui n’est pas satisfaisant pour plein de raisons, notamment parce qu’elle nous rend dépendant à l’infrastructure et aux serveurs de Google, mais aussi parce qu’elle alimente en revenus cette entreprise, notamment grâce à la publicité, en s’appuyant sur le suivi de nos activités individuelles sur la plateforme. Il s’agit donc de trouver d’autres alternatives.
Peertube et ses fédérations
Depuis 2018, Framasoft a soutenu puis aidé au développement puis déploiement de PeerTube, un logiciel libre de partage de vidéos. Ce développement a notamment été possible grâce au financement participatif, une manière concrète de se fédérer collectivement pour construire nos propres outils.
PeerTube est donc un logiciel qui permet de déployer rapidement sur son site internet un équivalent à YouTube. L’outil offre la possibilité de mettre en ligne des vidéos, de proposer aux internautes d’interagir sous forme de commentaires, de s’abonner, etc.
Dans cette première version, on a donc un outil local, sur son serveur, mais qui ne permet pas d’avoir une gigantesque base de données unique où aller chercher et diffuser de l’info. On appelle chacun de ces serveurs des instances.
La première proposition technique pour désenclaver les instances PeerTube s’appelle les fédérations. Chaque instance peut en effet choisir les autres instances qu’elle suit. Les vidéos des instances qu’elles suit seront alors visibles de manière transparente depuis la première instance, de même que toutes les interactions (commentaires, abonnements, j’aime, etc.).
Les instances et fédérations peuvent aussi se référencer sur le site principal de PeerTube. Cela permet aux internautes de chercher suivant des thématiquesles instances qui se sont référencées, pour ensuite pourquoi pas s’y inscrire, et en suivre les diffusions à la manière de ce qu’on ferait sur YouTube.
Sepia search
Mais comment découvrir de nouvelles instances qui regroupent du contenu qui nous intéresse, à part la recherche citée plus haut ?
En septembre 2020, Framasoft a officialisé la mise en ligne de sepia search, un outil qui permet de rechercher parmi toutes les vidéos contenues dans les instances indexées. Et là, ça ouvre la porte à beaucoup plus de possibilités.
Admettons que je m’intéresse au pain au levain. Je peux donc chercher avec le mot clé levain sur sepia search. Au moment où j’écris cet article, on trouve 19 résultats sur les 591 sites web PeerTube indexés.
Capture d’écran des résultats à la recherche « levain » sur Sepia Search
Un outil à faire grandir
Évidemment, face à la masse de contenus disponibles sur YouTube, on est encore très loin du compte. Il y a trois ans, quand PeerTube est apparu, on n’imaginait cependant pas la vitesse à laquelle il allait se déployer, devenant aujourd’hui un outil certes naissant, mais aux fonctionnalités et aux possibilités crédibles.
En sensibilisant les groupes militants, les gens qui s’intéressent au partage de connaissance, les acteurs de l’éducation populaire à utiliser cet outil — qui correspond d’ailleurs exactement à leurs valeurs — je suis convaincu que l’on peut faire de cet outil un espace d’émancipation et de partage de connaissances à la hauteur du défi auquel on doit faire face.
Et un jour peut-être pour le son ?
En tant que producteur et écouteur de contenu audio, je rêve que l’outil s’émancipe progressivement des fonctionnalités de YouTube, pour héberger un jour du contenu 100% audio !
Un moyen là aussi de proposer une solution indépendante, artisanale et décentralisée aux plateformes de podcast existantes.
Dans un article récent, je présentais quelques outils pour travailler avec le son avec les outils les plus simples que vous puissiez avoir : un smartphone, un ordinateur.
Tout ça c’est mignon, mais si on est confinés chez soi, on ne peut pas rejoindre physiquement ses interlocuteur·ices pour un entretien à plusieurs. Quels outils a‑t-on à notre disposition pour enregistrer une interview à distance ? Dans cet article, je vous propose quelques solutions, qui nécessitent plus ou moins de maîtrise technique, et qui s’appuient sur différents outils de communication.
Bien sûr, la qualité du son de ces enregistrements dépendra de votre micro, et de la manière dont vous vous installerez pour enregistrer. Je vous invite donc à lire l’article sur le son nomade pour trouver vos bonnes pratiques.
Enregistrer un appel téléphonique
Sur les téléphones intelligents, il existe des applications qui permettent d’enregistrer les conversations téléphoniques, telle Call Recorder. Cependant, cette solution n’est souvent pas retenue, pour différentes raisons.
Tout d’abord, le son des communications téléphoniques est d’une qualité bien moindre que celle des autres solutions présentées en dessous. Il s’agit de l’héritage d’un temps où les communications étaient moins bonnes, et où on choisissait de filtrer la voix en ne gardant que les fréquences medium pour économiser de la bande passante. D’autre part, de plus en plus de restrictions sont imposées par les fabricants des appareils, qui brident la version d’Android, afin que les applications ne puissent plus enregistrer ces communications. À vous donc d’essayer sur votre téléphone, vous découvrirez peut-être que tout marche encore pour vous. Ou pas.
Une solution alternative consiste à mettre le téléphone en haut parleur pendant la conversation, et à enregistrer le son avec un autre appareil, par exemple un second téléphone en mode dictaphone. Mais la qualité sonore des deux interlocuteurs sera très différente.
Utiliser une application dictaphone sur chacun des téléphones
Pour peu que les deux interlocuteurs soient un peu agiles avec leur téléphone, une solution simple à mettre en place consiste à s’appeler avec des smartphones, tout en utilisant sur chaque appareil une application dictaphone, comme celles citées dans l’article dédié à l’enregistrement nomade. Il ne reste plus alors qu’à assembler les fichiers son.
Utiliser le mode enregistrement d’une visio
Certaines plateformes de communication visio ou audio proposent l’enregistrement intégré. La qualité du son sur ces plateformes est souvent bien meilleure que celle des appels téléphoniques. Cependant, on peut noter que ces plateformes réalisent tout de même souvent un traitement sur le son : détection des silences, filtres anti-bruit, ou encore compression ou filtrages de fréquences. Il s’agit donc de choisir la plateforme dont la qualité de son et dont les capacités d’enregistrement correspondent à vos besoins et usages.
L’outil qui semble le plus robuste pour cela est skype, qui documente précisément comment enregistrer une conversation sur son site internet. C’est une des solutions couramment utilisées par les radios associatives pour mener leurs interviews à distance. Les expériences que j’ai pu réaliser montrent que le son est particulièrement compressé1Lise dirait que c’est un son à la NRJ.. L’enregistrement est disponible pendant 30 jours en téléchargement, au format mp3.
Prenez donc le temps de lire la documentation de vos outils de visio habituels, et d’essayer leurs possibilités. Cela pourrait convenir à vos besoins.
Utiliser les deux entrées d’un enregistreur
Si ces solutions ne vous conviennent pas, mais que vous avez à votre disposition un enregistreur muni de deux entrées, comme un Zoom H4n ou un Tascam DR-40, et que vous avez quelques câbles et un micro, vous pouvez connecter la sortie casque d’un ordinateur sur l’une des entrées de votre enregistreur, et utiliser un micro pour enregistrer votre voix. En réglant correctement votre enregistreur, et en utilisant un outil de visio de votre choix, vous obtiendrez ainsi un enregistrement comportant dans l’un des canal votre voix, et dans l’autre canal toutes les autres voix de vos correspondants. Et pour écouter la conversation en direct, branchez un casque sur l’enregistreur !
Utiliser une solution dédiée
Il existe des plateformes dédiées à l’enregistrement d’interviews à distance. Je pense en particulier à zencastr, qui propose en cette période de confinement un accès gratuit à sa plateforme pour les amateur·ices.
Une fois créé un compte, on peut créer des épisodes, et y inviter des participant·e·s. Lorsque qu’on lance la session d’enregistrement, l’outil enregistre séparément chaque participant·e, et à la fin de la session, autant de fichiers mp3 sont disponibles au téléchargement.
L’application zencastr avec un seul participant.
La qualité du son est ici différente de celle de Skype, avec moins de compression, mais avec un gate (détecteur de silence) qui est réglé un peu trop brutalement, et qui peut rendre difficile l’exploitation de l’enregistrement, suivant les usages.
Si cet outil ne vous convient pas exactement, il existe d’autres outils assez similaires comme Cleanfeed par exemple. Le compte gratuit de cette plateforme permet notamment d’enregistrer au format wave, mais sans avoir une piste par intervenant.
Choisir une solution générique
Si on maîtrise complètement le routage des sons entre logiciels dans son système d’exploitation, par exemple en utilisant pulseaudio sous GNU/Linux, on peut utiliser n’importe quel outil de communication audio (skype, meet, jitsi, etc.), et le combiner à un logiciel d’enregistrement (audacity, ardour, reaper, …) . Les vidéos ci-dessous raconte comment faire ça sous GNU/Linux et Windows 10 (je n’ai pas pu tester cette solution) :
Enregistrer n’importe quelle discussion audio sous GNU/Linux
Enregistrer n’importe quelle discussion audio sous Windows 10
On trouve aussi des outils clé en main pour faire cet enregistrement, mais ils sont majoritairement dédiés à l’enregistrement audio ET vidéo, comme par exemple OBS. Il faudra alors extraire l’audio de l’enregistrement vidéo, et on aura peu de maîtrise sur la qualité de l’audio enregistré.
Utiliser un plugin pour DAW
Les stations audionumériques (ou DAW en anglais) telles que Reaper, Ardour, Pro Tools ou encore Audacity peuvent souvent être équipées de plugins (ou VST) permettant une diffusion du son entre plusieurs ordinateurs. Il faut pour cela que les participant·e·s disposent de ce type de logiciel, et d’un moyen d’enregistrement.
Un peu plus technique, mais bien plus configurable, on peut aussi choisir d’installer puis de régler son propre serveur de conférences. TeamTalk est un de ces outils, assez simple à déployer, que l’on peut ensuite utiliser très simplement. On peut aussi citer des outils plus complexes mais extrêmement flexibles comme Asterisk ou darkice, qui sont souvent une des briques élémentaires des autres outils cités ici.
Se débrouiller autrement
Quand on n’a pas trouvé une solution satisfaisante avec les propositions listées ci-dessus, une solution bricolée est tout de même possible. Il s’agit d’utiliser sur un ordinateur supplémentaire un logiciel du type Audacity pour enregistrer la conversation.
En effet, on peut facilement réussir à enregistrer le son qui sort d’un logiciel de cette manière. Le défaut principal est que cette solution ne permet souvent pas d’enregistrer la voix de l’utilisateur·ice de l’ordinateur d’enregistrement. On utilise donc cette machine supplémentaire comme un enregistreur de la conversation, et on s’y connecte chacun·e avec son propre ordinateur ou téléphone. Pour 5 participant·e·s, on aura donc 6 connexions à la conversation… Mais ça marche !
J’ai beaucoup parlé sur ce blog des techniques d’enregistrement et des outils pour le montage et mixage du son. Cependant, on n’a pas toujours accès à du matériel dédié, ni la possibilité d’installer des logiciels sur une station de travail.
Dans cet article, je vous propose d’évoquer quelques outils faciles à utiliser pour faire les choses avec les moyens du bord.
Enregistrer sans matériel dédié
Quand on n’a pas d’enregistreur, de carte son externe ou de micro spécifique, on se croit parfois démuni. Or, vous avez fort probablement à votre disposition un ou deux appareils munis d’un micro (notamment en ces temps de visio) : un téléphone intelligent, un ordinateur.
Sur un smartphone, il suffit d’utiliser une application de type dictaphone, ou enregistreur audio (audio recorder). Il en existe de nombreuses libres et gratuites, chacune avec ses avantages et inconvénients. N’oubliez pas de bien repérer la position du micro, pour avoir une prise la plus propre possible. On trouve même des applications pour modifier sa voix.
Enregistrer sa voix avec un smartphone
Sur un ordinateur portable, le micro intégré est aussi un outil fonctionnel, même si en général, le micro est moins bon que celui d’un téléphone intelligent. À noter que la directivité des micros peut beaucoup varier d’un modèle à l’autre. Il semble que les micros des Macs soient très directifs : si vous n’êtes pas tout à fait en face, on vous entend à peine. À l’inverse, beaucoup de modèles de PC seraient plus omnidirectionnels. À confirmer.
Sur un ordinateur, on peut installer un logiciel dédié à l’enregistrement, comme par exemple Audacity, un logiciel assez simple, mais efficace. Mais en mode nomade, on peut être encore plus économe en préparation : le site internet Online Voice Recorder propose un outil d’enregistrement basique mais efficace, pour enregistrer un son :
Enregistrement avec Online Voice RecorderÉcoute et ajustements d’un son enregistré via Online Voice Recorder
Une fois l’enregistrement terminé, on peut écouter la prise, ajuster le début et la fin du son, puis le sauver sur son ordinateur.
Les conditions de la prise de son
Quel que soit l’outil que vous utilisez pour enregistrer, il faut bien sûr prêter une grande attention à l’espace dans lequel on est. Par exemple, l’environnement doit être calme si on veut enregistrer une voix seule. Suivant l’effet choisi, on fera aussi attention à l’acoustique de la pièce. Le son peut y être brillant ou mat, on peut entendre un certain écho, ou au contraire entendre un son feutré. L’équilibre entre ces deux premiers extrêmes doit être trouvé suivant ce que l’on souhaite.
Au fil du temps, j’ai par exemple utilisé un dressing ou un placard ouvert rempli de vêtements pour étouffer le maximum de réverbérations possibles, et avoir un son de voix la plus « neutre » possible (une voix off par exemple), un salon pour que l’auditeur entende que je suis dans un espace convivial, le son semblant plus naturel, une salle de bain ou un couloir aux murs carrelés et assez nus, pour un effet de réverbération, un jardin public pour entendre un petit bruit de fond, …
Poser sa voix est aussi important, trouver une ambiance, … Si cette question vous intéresse, vous trouverez certainement dans l’article réaliser de la fiction audio quelques idées pour alimenter vos réflexions.
Un autre aspect important est la distance et la position par rapport au micro. Évidemment, les micros embarqués dans les téléphones et les ordinateurs ne sont pas prévus pour un enregistrement soigneux, même s’ils permettent déjà de faire pas mal de choses. Il arrive aussi qu’un traitement soit réalisé sur votre enregistrment sans que vous ne puissiez le contrôler (suppression de certains sons, filtrage, etc.). La meilleure solution est donc de faire des tests, en faisant attention aux bruits de touché de l’appareil, aux plosives (que l’on n’a pas envie de traiter a posteriori), à la distance et à l’orientation du micro par rapport à notre bouche…
Faire du montage depuis n’importe où
Une fois que les enregistrements sont faits, on récupère des fichiers son, au format wav ou mp3. Sur la qualité des enregistrements, on peut lire l’introduction de cet article sur le bon usage d’un enregistreur, tout en gardant à l’esprit que la solution que vous aurez choisie (application, logiciel) ne vous permettra peut-être pas une telle finesse de réglages.
Pour assembler ces fichiers en un son finalisé, on utilise généralement un logiciel de montage, de mixage, et de mastering. On peut bien sûr choisir d’installer des logiciels complexes et dédiés, comme ceux évoqués dans cet article sur le montage son. Audacity, cité précédemment, est une solution très simple pour commencer, même si elle ne permet pas toute la palette des traitements existants.
Mais si on ne veut ou ne peut pas installer de logiciel, il existe tout de même des solutions. Sur ordinateur, je vous conseillerai l’utilisation d’AudioMass, une application en ligne utilisable directement et sans création de compte.
interface d’Audiomass, un logiciel en ligne de montage son
Depuis quelques mois je fais mon pain. J’avais raconté dans un précédent billet ce que j’avais compris du processus, et comment je faisais mon pain. Depuis, les choses ont un peu changé.
Mais surtout, j’ai repris le chemin de l’université, après plus de 6 mois en télétravail. Dans mon métier, on travaille de 8 à 14 heures par jour suivant les périodes.1Que fait un enseignant-chercheur : préparation des cours, cours, préparation des examens, correction de copies, tâches administratives d’enseignement, montage de dossiers pour obtenir des financements, gestion des projets financés, recrutement, accueil et réunion avec les collègues chercheurs recrutés, développement d’outils pour la recherche, explorations et expérimentations scientifiques, recherche proprement dite, rédaction d’articles, diffusion des activités de recherche auprès du grand public, animation de groupes de recherche, relecture d’articles, organisation d’événements, etc. Quand on travaille de chez soi, il est souvent possible de faire une pause pour pétrir son pain. Mais quand on est loin de chez soi de 7h30 à 20h30, comment fait-on pour continuer à faire son pain tout en gardant une hygiène de sommeil satisfaisante ?
J’ai trouvé une organisation qui marche très bien, et qui m’a même permis d’améliorer ma pratique. Cela nécessite d’avoir deux soirs à suivre où l’on peut passer un peu de temps chez soi, au lieu de rentrer pour juste dormir.
Faire son pain en deux soirs
Le premier soir, je sors mon levain du frigo, je lui donne un peu de farine, puis je le laisse une heure se réchauffer. Quand il est prêt, je prépare mon pâton, et je le pétris. Je le laisse monter toute la nuit dans un saladier recouvert d’un torchon humidifié. Cette première levée dure quelque chose comme 7 ou 8 heures.
Quand je me lève le matin, je mets le saladier au frigo, et je pars pour ma journée.
Le deuxième soir, je sors mon pâton du frigo, et je le laisse revenir à chaleur ambiante pendant une heure environ. Là je façonne, puis je cuis.
Dans mes derniers essais, je suis revenu à une température de 260 degrés, car je trouvais qu’à 270° le cœur du pain n’était pas toujours bien cuit. Je cuis donc un peu plus longtemps, quelque chose comme 30 minutes pour un pain de 400 grammes (quantité à la louche, car je ne pèse rien).
La pousse longue durée comme je pratique ici (soit quasiment 24 heures en tout) amène le pâton à former de grandes alvéoles, qui quand le pain cuit produisent un réseau assez irrégulier, mais une mie très très souple. Je peux sans difficulté garder mon pain 5 à 6 jours, ce qui m’amène à faire un peu plus d’une fournée par semaine, un rythme qui me convient bien, d’autant que les opérations à mener les deux soirs sont très simples, et demandent peu de temps.
Cet été, j’ai fait une pause dans le développement de Pictoparle, l’outil de communication alternative et augmentée que je développe depuis le début de l’année 2020. Le site internet présente son fonctionnement actuel, et l’avancée de son développement.
Pendant l’été, j’ai identifié des limitations dans cette première version, et la semaine qui vient de s’écouler a été l’occasion de commencer à fabriquer un deuxième exemplaire de Pictoparle, car le premier est maintenant dans les mains d’une utilisatrice et de ses accompagnant·e·s. J’ai aussi pu échanger avec de nombreuses personnes, afin de faire une synthèse des besoins. Je suis maintenant prêt à reprendre le développement de Pictoparle. Peut-être pas à la même fréquence que pendant la première partie de l’année, mais régulièrement, j’apporterai des améliorations. Pictoparle deviendra de plus en plus adapté aux besoins.
Dans la suite de ce billet, je fais l’état des lieux des besoins d’amélioration identifiés.
Améliorations des interactions
Pendant l’été, nous avons utilisé Pictoparle dans plein de situations différentes. Nous avons repéré quelques difficultés d’usage. Pictoparle doit donc être modifié, ce qui a déjà en partie été initié :
il arrive que la paume de la main déclenche involontairement le son associé à un pictogramme de bas de tablette quand la main explore le haut. Le double tap devra être amélioré pour éviter ces désagréments.
il arrive que le double tap marche mal. Il faudra régler le délai entre deux taps. Il s’agit plus d’ajustements qu’autre chose.
quand il y a beaucoup de lumière alentours, la détection du QRcode se passe mal, et parfois même Pictoparle ne détecte pas le fait que la planche ait été posée. J’ai identifié quelques raisons de ce dysfonctionnement, et commencé à modifier en conséquence la forme des planches. Les prochaines semaines seront l’occasion de vérifier que cette correction suffit.
La nouvelle forme des planches qui permet un cadre blanc autour du QRcode.
Améliorations de la présentation des planches
En discutant avec des accompagnant·e·s qui découvraient le prototype, nous avons fait le constat qu’il pouvait manquer sur la planche des informations permettant de s’approprier facilement le dispositif. En particulier, j’ajouterai prochainement :
Pour chaque pictogramme, un sous-titre écrit sur la planche qui indique ce que décrit le pictogramme, à destination des accompagnant·e·s. On pourra par exemple l’imprimer dans une couleur pâle pour qu’elle ne soit pas thermogonflée.
Pour chaque planche, une inscription qui nomme la planche, pour les accompagnant·e·s.
On pourra aussi imaginer une version en relief de cette identification de planche.
Création de nouvelles planches
Après les trois premières planches qui sont maintenant utilisées (repas, activités de loisir et fun), nous sommes en train de concevoir avec une ergothérapeute et une éducatrice spécialisée deux nouvelles planches, l’une destinée aux jeux de société, et l’autre destinée à l’activité de cuisine.
De nouveaux pictogrammes sont dessinés, et ces deux planches viendront prochainement rejoindre les trois premières.
Amélioration des plans de fabrication de la boîte
J’ai profité de la réouverture du Débrouillo’Lab, le fablab des Petits Débrouillards installé récemment à la Goguette pour aller découper une nouvelle boîte, et ainsi fabriquer un deuxième prototype.
La découpeuse laser du Débrouillo’Lab
Pendant la fabrication, et en échangeant avec Jennifer et Samuel, j’ai identifié de nombreuses améliorations possibles :
Il faut mesurer avec une grande précision les planches, sinon l’assemblage se passe difficilement. Par exemple, j’avais trouvé des planches medium A4 à un peu plus d’un euro la planche, avec une épaisseur annoncée de 2 millimètres. Dans les faits, elle mesurent 2,3 millimètres, et j’aurais dû ajuster cette épaisseur dans la fabrique de Pictoparle.
Il faut bien choisir le kerf. Dans la construction que nous avons faite, nous avions réglé un kerf de 3/10 de millimètres, mais c’était trop large. On pourrait indiquer sur la page qu’un kerf trop fin est préférable à un kerf trop large, puisqu’après l’assemblage, on colle.
L’assemblage n’est pas facile car il manque des inscriptions. Une idée consisterait à graver sur les pièces une numérotation des pièces et de leur lieu de fixation.
On pourrait placer les pièces dans l’ordre d’assemblage sur la planche.
Certains crénelages sont peut-être orientés dans le mauvais sens, et leur assemblage est complexe.
Il pourrait être pertinent d’arrondir les coins des crénelages, pour que l’assemblage se fasse plus facilement.
On pourrait imaginer déplacer les crénelages d’assemblage pour en faire aussi des détrompeurs d’orientation des pièces.
On pourrait aussi ajouter une gravure pour localiser l’endroit où coller le QRcode et le papier thermogonflé, pour en faciliter l’assemblage.
De manière générale, il faudra aussi revoir le contenu des pdf qui permettent d’imprimer QRcode et feuille thermogonflée, pour que le numéro de la planche reste écrit à côté du QRcode, et que le pdf contienne les paramètres (nom de la planche, type de tablette, mise à l’échelle, etc.). Cela permettra de vérifier que les documents sont les bons avant l’impression.
Correction de bugs dans la fabrique
À l’occasion de la découpe pour le nouveau prototype, conçu autour d’une tablette de modèle différent, nous avons constaté quelques bugs dans la fabrique :
La génération de certains crénelages rate complètement quand la planche devient très fine. Les deux parties ne s’assemblent plus.
Quand on a voulu fabriquer la planche, le choix du modèle de tablette n’a pas été pris en compte, et on a découpé deux fois une planche pour le mauvais modèle de tablette. Les fichiers générés pourrait porter le nom du modèle de tablette, en plus du nom de la planche.
Faciliter la contribution
En discutant avec Jérémy, une personne intéressée à la partie logicielle du projet, j’ai remarqué que la manière d’ajouter un nouveau modèle de tablette à l’application n’était pas facile. Je prévois donc dans les temps prochains :
D’utiliser les mêmes fichiers xml côté fabrique et côté application Android, et de réduire au maximum les endroits où il faut ajouter des informations.
De rédiger un document qui explique comment mesurer une tablette existante pour pouvoir l’ajouter facilement à celles proposées par la fabrique de Pictoparle.
Le fichier zip généré par la fabrique devrait aussi contenir les informations de fabrication, et notamment le type de tablette. Cela permettrait de régler automatiquement les résolutions dans l’application sans devoir passer par le menu de configuration. Cela permettrait aussi de sauver l’édition d’une planche pour la reprendre plus tard, en gardant aussi les réglages de fabrication.
Ajout d’un lecteur multimédia
La première utilisatrice de Pictoparle est une très grande consommatrice d’histoires audio. Les différents endroits où elle est accueillie lui proposent des activités, mais il serait intéressant que Pictoparle permette aussi d’écouter des histoires.
L’idée serait cette année d’étendre Pictoparle pour qu’en plus des planches de communication, il y ait des planches d’activité. On pourrait par exemple avoir une planche contenant quelques pictogrammes : petite histoire, moyenne histoire, longue histoire pour lancer une histoire, puis un pictogramme pause. Le déclenchement d’un pictogramme histoire lancerait une nouvelle histoire, après avoir dit son nom et sa durée grâce à la synthèse vocale, en choisissant la prochaine dans la liste correspondante. Le pictogramme pause permettrait d’arrêter la lecture, ou de la reprendre (en indiquant le nom de l’histoire, et la durée restante).
Depuis quelques mois, j’utilise Twitter, pour suivre l’actualité sur les sujets qui m’intéressent. C’est comme ça que j’ai vu passer plusieurs des livres qui sont devenues mes lectures estivales.
MAD MAPS, l’atlas qui va changer votre vision du monde, de Nicolas Lambert et Christine Zanin
Je lis souvent avec intérêt les posts de Nicolas Lambert, le cartographe encarté. Avec sa collègue Christine Zanin, ils viennent de sortir chez Armand Colin un super atlas intitulé Mad Maps.
Détail de la couverture de Mad Maps, de Nicolas Lambert et Christine Zanin
C’est un condensé de représentations du monde comme on aime les voir, intelligentes et percutantes. J’ai adoré le parcourir, notamment certaines doubles-pages très bien conçues, à la représentation proposée super pertinente. Je pense par exemple à cette carte qui propose d’observer le ratio cadre/ouvriers dans chaque ville de France, d’une efficacité redoutable.
Très bon outil pour partager sa passion pour les cartes avec un entourage qui s’intéresse à la politique, à l’écologie, ou plus globalement qui est curieux du monde qui l’entoure.
L’éditeur en fait des caisses avec cette vidéo à la musique trépidante, mais le bouquin est génial
Pour la recherche urbaine, ouvrage collectif
La revue Urbanités proposais en juillet de découvrir l’ouvrage collectif Pour la recherche urbaine. Très théorique, plutôt animé par des chercheurs et chercheuses il interroge la pratique de la recherche autour de la ville. À travers cette série d’articles, on parcourt les dimensions sociales, écologiques, politiques, matérielles de la ville.
Détail de la couverture de Pour la recherche urbaine, ouvrage collectif
L’article « Big city, smart data ? » questionne par exemple les pratiques de pratiques scientifiques et techniques répandues dans les disciplines scientifiques où je pratique ma recherche, notamment sur la mobilité et sur la e‑santé.
Je n’ai pas eu le temps de lire tous les articles, mais j’y reviendrai avec plaisir et intérêt. Les textes sont denses, et il faut prendre le temps de les apprécier.
L’architecture de la voie, Histoire et théories, d’Éric Alonzo
C’est sur Facebook que j’ai découvert récemment le travail d’Éric Alonzo. Par chance, la librairie les Volcans avait dans ses rayons un exemplaire de l’architecture de la voie, ouvrage de l’auteur qui m’attirait le plus.
Détail de la couverture de L’architecture de la voie, Histoire et théories, d’Éric Alonzo
Le contenu est à la hauteur de mes attentes, car il retrace l’histoire des écrits et pratiques de la conception de voies de circulation, urbaines et extra-urbaines, depuis l’antiquité jusqu’à la fin du XXe siècle. Richement illustré de reproduction extraites des livres qui sont cités, on se promène parmi les pratiques et les convictions des observateurs et des bâtisseurs de voies de circulation. Des cartes, des plans, des schémas, des vues en coupes, transversales ou longitudinales, des gravures, des photos… On y retrouve illustrées les pratiques de près de 20 siècles de tracé et de fabrication des voies. D’architecture de la voie, finalement.
Très accessible, fourni en références et citations, il rappelle dans une certaine mesure, en plus vulgarisé et moins technique, le manuel Éléments de topographie, qui s’intéressait lui à décrire uniquement la pratique du début du XXe siècle. Tout simplement passionnant.
Contrôle, comment s’inventa l’art de la manipulation sonore, de Juliette Volcler
J’aime beaucoup le travail de Juliette Volcler, que je lisais dans Syntone, que j’avais rencontré à Utopie Sonore, recroisé à Longueur d’ondes (en 2018 peut-être ?), que j’avais découvert derrière feu perce-oreilles, l’annuaire de podcasts furieusement bien fourni…
Détail de la couverture de Contrôle, comment s’inventa l’art de la manipulation sonore, de Juliette Volcler
Et depuis quelques mois, je tombais régulièrement sur des posts facebook de lecteurs de son bouquin Contrôle, comment s’inventa l’art de la manipulation sonore. Une lecture stimulante en cet été d’une année 2020 pour le moins étrange.
Le fil conducteur du livre, c’est Harold Burris-Meyer, qui semble avoir été de toutes les expérimentations du contrôle par le son. Contrôle de l’émotion des spectateurs de théâtre, contrôle de l’activité salariée dans les usines, ou encore outil au service de la guerre. Riche en anecdotes, en références, le livre de Juliette Volcler se promène à travers le XXe siècle, en dévoilant l’importance prédominante du sonore dans les pratiques des industries du contrôle des masses.
Je vais m’arranger, comment le validisme impacte la vie des personnes handicapées, de Marina Carlos, illustré par Freaks
Marina Carlos fait partie du collectif les Dévalideuses, et gravite dans l’une des twittosphères que je suis avec passion. C’est avec grand intérêt que j’ai vu ses annonces puis le lancement du livre « Je vais m’arranger : comment le validisme impacte la vie des personnes handicapées », dont elle est l’autrice, et pour lequel elle s’est associée avec Freaks pour les illustrations.
Détail de la couverture de Je vais m’arranger, comment le validisme impacte la vie des personnes handicapées, de Marina Carlos, illustré par Freaks.
Le livre peut être vu comme une brochure étendue de 80 pages, qui se propose de déconstruire les mécanismes du validisme, qui pèse sur le quotidien des personnes en situation de handicap, parfois même sans que ces principales concernées ne s’en rendent compte.
Les pages sont aérées et fluides, les idées sont développées de manière simple et limpide, et les illustrations étayent encore un peu plus ce confort de parcours.
Voilà un livre à mettre entre toutes les mains, pour que la voix des Dévalideuses, du CLHEE, du CLE Autistes et de tous les mouvements portés par les personnes concernées arrive aux oreilles de toutes et de tous.
Tobie Lolness, de Timothée de Fombelle
En passant à la librairie de Clermont pour récupérer l’exemplaire de Mad Maps que j’avais commandé grâce au site chez mon libraire, on a choisi avec ma fille un roman de vacances, sur les conseils de la libraire.
Le premier volume de Tobie Lolness de Thimothée de Fombelle s’intitule la vie suspendue. On y suit l’histoire d’un jeune garçon de un millimètre et demi qui vit avec ses semblables sur l’écorce d’un arbre, où la granularité de l’écorce sculpte les paysages, où on élève les larves de charançon pour se nourrir, et où le terrible Jo Mitch élève les adultes pour creuser d’énormes tunnels à travers l’écorce de l’arbre.
Tobie Lolness, de Timothée de Fombelle
Avec les personnages, on se questionne sur la survie de l’arbre, sur le rôle de l’industrie, on découvre les questions de classe, de géographie des cimes et des basses branches, de l’importance du soleil, de l’amitié, de l’amour.
L’écriture est moderne, les personnages et l’univers délicatement racontés, on dévore le livre, où l’intrigue est palpitante, et la structure narrative dynamique à ne plus vouloir lâcher le livre.
Il y a plus de 13 ans, quand je tenais un blog sur la cuisine végétarienne, j’avais fait mon premier pain, à la levure de boulanger. Pendant le confinement, j’avais bien sûr tenté de démarrer mon levain, pour participer comme tout le monde au grand jeu du pain au levain. Mais j’ai complètement échoué.
À la sortie du confinement, j’ai passé du temps avec une amie apprentie boulangère, qui m’a appris plein de choses. On a demandé à une boulangerie du coin un peu de son levain, qu’ils nous ont donné avec gentillesse, et j’ai ainsi pu commencer à pratiquer. J’avais aussi énormément envie de lire sur la question. Cet article de blog est donc une prise de notes pour que je me souvienne comment je fais, mais aussi pour donner quelques liens sur des documents qui expliquent super bien la chimie du pain. Si le sujet vous intéresse, je vous invite d’ailleurs à lire le traité de boulangerie au levain, de Thomas Teffri-Chambelland, que j’ai eu la chance de parcourir, et que je trouve très très intéressant. Il est certainement un peu trop technique pour commencer, mais peut être une bonne référence à consulter quand on a envie de tout comprendre, jusqu’au moindre détail.
Vous trouverez à la fin de cet article quelques références de documents disponibles en libre accès sur internet, et qui permettent de comprendre un max de choses.
Dans la suite de cet article, je raconte comment je fais. On m’a appris comme ça, et comme il y a autant de manières de faire que de personnes, vous ne faites sans doute pas pareil. N’hésitez pas à indiquer en commentaire de cet article là où votre pratique diffère de celle que j’ai apprise.
Le levain
Pendant le confinement, j’ai tenté de démarrer mon propre levain, mais j’ai échoué. La première fois parce que j’avais pris de la farine trop blanche — car les résidus de son présents dans les farines complètes aident au démarrage d’un levain — puis certainement par manque d’attention.
Grâce à ma boulangère préférée, j’ai découvert qu’on pouvait aller demander du levain dans une boulangerie, à condition de repérer celles qui en utilisent, et qui sont d’accord pour partager. C’est comme ça que j’ai accueilli un levain dans mon frigo.
Un levain de blé, récemment sorti du frigo et nourri à l’eau et à la farine de blé.
Comme vous le verrez en parcourant les documents pointés dans la dernière section de cet article, il existe plein de levains différents, et plein de manière de l’entretenir. Il y a les règles de l’art, et puis les facilités que l’on s’accorde, quand on maîtrise la chose, ou par ignorance.
Pour ma part, j’entretiens mon levain comme on me l’a appris : conservation au frigo pour une pousse lente, je lui donne une fois tous les 2 ou 3 jours à manger de la farine, et j’équilibre la texture avec de l’eau. La texture va déterminer en partie le goût du pain : une levure liquide favorise la production d’acide lactique, qui donne un pain au un goût moins acide que ce qu’on obtient avec un levain ferme, qui favorise l’acide acétique.
Parfois, le levain consomme très vite sa farine, et vire un peu à une odeur vinaigrée. Alors je me dépêche de faire du pain, et je n’en garde qu’un peu, à qui je donne un max de farine et eau.
Car oui, quand on fait du pain, il faut penser à ne prendre qu’une partie du levain, pour continuer à le garder. Généralement, j’en prends la moitié (soit 100 à 200 grammes), et je nourris la moitié restante puis la remet au frigo. Parfois j’en jette un peu, si la quantité est trop grande pour ma production de pain.
Le pétrissage
Prendre du gros sel
Faire fondre le sel dans l’eau
Choisir ses farines
Préparer son levain
La préparation du pétrissage, eau, sel, farines, levain.
On commence donc par préparer ses ingrédients. J’utilise du gros sel, que je dissous dans de l’eau claire, en mélangeant pendant une à deux minutes. Au début, je chauffais un peu l’eau pour faciliter la dilution, et la gardait tiède dans la suite. Mais au final, ça accélère artificiellement la fermentation, et ça ne sert pas à grand chose pour la fonte du sel.
Je choisis ensuite mes farines, avec de la farine de blé de T65 à T1501Tiens d’ailleurs, j’ai découvert qu’en France, on utilisait une technique assez scientifique pour évaluer le type des farines, en la brûlant, et en mesurant la quantité de matière minérale restante. Chaque pays pratique une échelle différente, et on trouve des tableaux d’équivalence pratiques quand on passe une frontière., et de la farine de seigle, pour donner un peu de caractère au pain.
Il s’agit ensuite de mélanger les ingrédients, puis de pétrir soigneusement pour obtenir une pâte homogène, avec de bonnes propriétés élastiques, et une bonne tenue.
Placer dans un saladier un peu du levain.
La quantité d’eau en proportion de la farine est une question importante. On m’a dit qu’en boulangerie bio, on hydratait à hauteur de 70% à 100%, c’est-à-dire que pour 100 grammes de farine, on mettait entre 70 et 100 grammes d’eau. En dessous, le levain manque d’eau pour son processus de fermentation, et la levée n’est pas satisfaisante.
Plus la pâte est hydratée, plus le façonnage sera délicat. Quand cette quantité est vraiment élevée, on peut utiliser un moule, par exemple un moule à cake. Cependant, plus le pain est hydraté, plus le volume des pains augmente, car on favorise l’activité microbienne. Le pain sera donc beaucoup plus alvéolé.
La levée
On laisse ensuite la pâte lever. Suivant la température et l’humidité ambiante, la température et quantité d’eau utilisée, cette levée prend de 3 heures à 5 heures. Il faut à la fois laisser le temps au levain de faire son travail, mais ne pas attendre trop, sinon tout retombe. Il existe des techniques avec sondes thermomètre pour évaluer le bon moment où arrêter la levée. On peut aussi faire comme moi, à l’intuition, autour de 4 heures de levée.
Fin du pétrissage.
après 1h15
après 2 heures
après 2h45
après 3h30
Le façonnage et le lamage
Dans les pratiques documentées, on voit que les gens pratiques une double levée, en réalisant un boulage après quelques heures de levée, puis de nouveau une levée d’une heure. Le boulage consiste à séparer la pâte en petites boules, qui serviront ensuite à fabriquer le pain. Dans cette pratique, on laisse le temps au levain de poursuivre son travail, pour que le réseau d’amidon se reconstitue après cette manipulation.
Car il faut le dire, la structure du pain, alvéolée, uniforme, à la fois souple et structurée, on la doit précisément au réseau. Et plus on manipule la pâte, plus on déchire la structure du réseau, et moins la tenue sera bonne.
On m’a appris une technique où il n’y a pas de seconde levée. Il s’agit de manipuler le plus rapidement possible la pâte, en commençant par la couper le plus délicatement possible, avec une lame fine, et en essayant de ne pas déchirer la pâte.
Eau et farine, pour éviter que ça ne colle.
On sépare en deux boules
On façonne en deux boules.
Le façonnage du pain
On manipule ensuite chaque boule délicatement, en réalisant le moins de gestes possibles. Pour que la pâte ne colle pas, on peut soit utiliser de l’eau sur nos mains, soit de la farine. J’utilise généralement de l’eau pour décoller la pâte du saladier, puis de la farine pour façonner2C’est d’ailleurs cette farine que l’on retrouvera sur le pain après la cuisson. Car oui, la farine ne grille pas quand le pain cuit, elle reste blanche. C’est une manière d’avoir un pain à l’apparence contrastée, puisque normalement la partie lamée n’a pas eu de farine, et est donc plus foncée que la partie plat..
Le principe consiste à donner de la force à la pâte. On commence par l’aplatir grossièrement avec le plat de la main sur la table, puis on replie une ou plusieurs fois la pâte, en l’allongeant un peu au fur et à mesure. La dernière soudure, appelée la clé, se place sous la boule. On utilise ensuite l’adhérence à la table — que l’on dose éventuellement à l’aide d’un peu de farine — pour fermer la clé en quelques mouvements de glissement sur la table, les mains soutenant la boule pour conserver la tenue générale.
On place alors le pain sur la plaque de cuisson, au préalable farinée. Les dernières fois, j’avais oublié cette étape, et le pain colle alors à la planche, c’est une vraie galère. Sur la photo qui suit, j’y suis allé un peu fort en farine, comme pour compenser les cuissons précédentes. On y va mollo quand même ! J’ai remarqué que si on ne met pas de farine, la forme de la boule est plus écrasée à la base, sans trop d’arrondi, plus sous la forme d’une demie lentille.
après le lamage
On se prépare à enfourner.
Au dernier moment, quand le four est chaud — voir la section suivante pour le détail de la cuisson — on lame le pain. L’idée est de donner quelques incisions sous forme de lignes bien profondes, avec une lame très coupante. J’ai pour ma part utilisé de bons couteaux, ou un rasoir, mais je ne maîtrise pas encore bien ce geste, et sur la photo vous verrez que les entailles ne sont pas assez profondes : elles commencent même à se refermer.
L’objectif du lamage est d’ouvrir des cheminées, par lesquelles les gaz produits par la fermentation pendant la cuisson pourront sortir. Sans cela, le pain risque d’exploser, en se déchirant à des endroits non maîtrisés du pain. C’est moche, je le sais parce que j’ai déjà essayé. Et ça change un peu l’apparence de la croûte et de la mie, de ce que j’ai expérimenté.
L’enfournage et la cuisson
On règle le four assez chaud, de mon expérience entre 240 et 250 degrés, dans un mode qui évite aux aliments de sécher — par exemple chaleur tournante — mais qui soit en même temps irradiant en dessous, et possiblement au dessus aussi — par exemple avec le grill activé. L’idéal étant d’activer les deux, voire d’utiliser la fonction pain du four, si elle existe.
en mode cuisson à 240 degrés.
Le four a atteint la température souhaitée, et notre pain est lamé. On peut maintenant enfourner. L’idée est d’ouvrir le moins longtemps possible la porte du four. On ouvre, on place la plaque, et on ferme.
Pour garder l’humidité dans le four, et former une bonne croûte dorée, on peut rouvrir le four juste après, en jetant dans le fond du four un demi verre d’eau. Ça produit immédiatement de la vapeur, et si on est assez rapides, on a fermé la porte, et la vapeur reste un moment dans le four.
On peut aussi laisser au fond du four un récipient rempli d’eau, pour assurer un bon niveau d’humidité ambiant.
Les pains cuisent, ils montent et prennent une belle teinte.
La durée de la cuisson dépend d’énormément de paramètres. Sans outil ni expérience, on se fie à la couleur de la croûte, qui doit commencer à dorer. De mon expérience, les petits bâtards mettent de 15 à 18 minutes à cuire, quand une boule mettra plutôt de 16 à 20 minutes.
Afin de garder une bonne humidité et une bonne température, on n’ouvre le four sous aucun prétexte, encore moins pendant les 10 premières minutes.
Et quand le pain est cuit, on le sort. Une étape que j’avais oubliée au début, qui s’appelle le ressuage, consiste à aérer le dessous du pain pour qu’il perde son humidité en refroidissant. On peut mettre les pains à l’envers, ou les placer sur une grille. Et surtout, on retient sa gourmandise, et on ne coupe le pain que quand il a refroidi, sous peine de lui faire perdre une bonne partie de son humidité.
Deux pains qui manquent un peu de cuisson, et dont le lamage est vraiment améliorable, on voit que le réseau avait commencé à se reconstruire, refermant l’ouverture.
Apprécier le pain
Que cherche-t-on dans un bon pain ? Pour l’aspect santé et nutrition, on privilégiera des farines complètes, et des céréales bio, pourquoi pas autre que du blé.
Pour le goût, on travaille sur le type de fermentation, pour garder un peu d’acidité mais pas trop, on choisira des farines avec un caractère, comme le seigle ou le petit épeautre par exemple. Quand on ne sale pas l’eau au moment du pétrissage, ça se sent pas mal, il faut y penser. On pourra aussi utiliser un peu d’huile d’olive, des herbes, des graines ou des fruits pour parfumer le pain. Ils sont introduits dans la pâte au moment du pétrissage, mais peuvent changer la chimie de la levée, pas tout le temps simple à gérer.
Une mie un peu aérée, une croûte fine. Le pain manque un peu de cuisson, son goût manque de caractère. Le pain est très souple, un peu élastique, et il a commencé à sécher au bout de 3 jours.
La texture de la mie et de la croûte est aussi un aspect que l’on cherche à maîtriser. On cherche une mie alvéolée, plus ou moins dense suivant les goûts, souple, plus ou moins élastique. On préfère la croûte fine, ou épaisse, molle, craquante ou croustillante. Tout cela se règle à chacune des étapes de la préparation du pain.
Par exemple, plus le four sera chaud pendant la cuisson, plus la croûte sera fine. Le côté croustillant ou craquant de la croûte dépend de la température du four, de l’humidité, mais aussi de la qualité de la fermentation et de la construction du réseau. C’est quelque chose que je trouve encore dur à comprendre. Je suis loin d’en maîtriser les aspects les plus simples.
La conservation du pain est aussi une problématique difficile à maîtriser. Les farines complètes et la mie dense semble sécher moins vite, mais c’est une impression, que je n’arrive pas à ajuster.
Et quand il devient sec ?
Et quand le pain devient trop sec, qu’en fait-on ? Il y a le traditionnel grille-pain par exemple. Mais pourquoi pratique-t-on ce mode de préparation ? On aime y retrouver le croustillant à l’extérieur, et le moelleux à l’intérieur.
Retrouver un pain moelleux est en effet possible, et simple à réaliser, quand on a compris une partie de la chimie du pain. En effet, une partie du durcissement du pain réside dans l’apparition de ponts hydrogène, qui figent la structure du pain. Une chauffe pendant quelques minutes à moins de 40 degrés permet de casser ces ponts sans griller le pain. Les pratiques suggèrent souvent de mouiller le pain avant de l’enfourner pour lui redonner sa souplesse. Si les détails vous intéressent, je vous invite à poursuivre la lecture de cet article en consultant le lien donné ci-dessous, qui pointe vers le site je pense donc je cuis.
Bonne dégustation !
Améliorations…
Depuis ce billet, j’ai de nouveau échangé avec mon amie apprentie boulangère, et j’ai ajusté mon processus. J’ai augmenté la durée de levée à 5 heures — j’arrêtais trop tôt la pousse — ce qui a grandement faciliter le façonnage et le lamage. J’ai fariné mes pains avant de lamer en forme de croix pour améliorer l’esthétique, et j’ai cuit à 270°C. Le résultat est vraiment meilleur, notamment au niveau du croustillant de la croûte, et de la structure du réseau.
Une nouvelle fournée, mieux réussie grâce à des ajustements dans la préparation.
J’espère continuer encore et encore à affiner ma pratique, à la fois en expérimentant, et en lisant sur le pain…
Comprendre le pain
Parmi les sites internet très fournis sur la question du pain, de la pratique à la théorie, on trouve le site Pâtisserie 21 — pour une pâtisserie et boulangerie artisanale au XXIème siècle — avec une page dédiée à la technologie boulangère, très bien documentée.
Le site je pense donc je cuis consacre un article à la question du pain qui durcit et un autre à l’amidon, avec des explications simples et compréhensibles des mécanismes chimiques à l’œuvre dans la fabrication du pain et des pâtes en général.
Sur la question du levain, on trouve un document pdf de 10 pages édité par la Fédération régional des agriculteurs biologiques Midi-Pyrénées intitulé quelques techniques pour bien réussir son levain, qui est à la fois pointu et fonctionnel. Pour ma part, je reproduis ce qu’on m’a appris, et si ça marche mal (le levain devient trop acide par exemple), je parcours ce document pour comprendre le pourquoi du comment, et pour réparer mes erreurs.
Sur la fabrication du pain en général, on trouve plusieurs documents très complets au format pdf3Le pdf est le format que je trouve le plus facile à archiver et à réutiliser, j’ai donc majoritairement collecté ce type de ressources. Ils sont souvent écrits par des passionnés, parfois édités dans des revues spécialisées, parfois conçus pour être mis à disposition sur internet. Je pense notamment à l’article levains et panification du supplément technique des Nouvelles de la Boulangerie Pâtisserie de mars 1996, qui traite notamment de l’histoire du levain, puis de son élaboration avec plusieurs techniques, tableaux chiffrés à l’appui, puis qui détaille beaucoup de techniques de préparation et cuisson du pain, le tout à destination de professionnels. Je pense aussi au document de téléformation bon pain bon levain, un reportage complet (photo à l’appui) sur la création d’un levain, puis de sa panification et de sa cuisson. Il est proposé par l’asbl Pense à 2 Mains, une plate-forme d’éducation permanente. Je pense aussi aux publications du site faire soi-même son pain, animé par un passionné, qui contient plein de liens et de références vers d’autres documents, avec notamment un document de 32 pages très complet et bien documenté, intitulé la fabrication du pain.
Quand on commence à pratiquer, on a envie de varier les farines, les cuissons, les temps de levage, etc. On peut alors regarder du côté du livret de recettes de pains au levain proposé par les Ambassadeurs du pain qui donne quelques outils indispensables à la compréhension du levain, puis qui donne nombre de recettes, avec ingrédients, type de pousse, de levain, et au procédé de fabrication efficacement décrit pour qui maîtrise la panification.
PS : retrouvez cet article ainsi que d’autres contenus sur mon nouveau blog dédié à la boulange : https://boulange.jmtrivial.info/.
Treizième sprint de l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées de la dernière semaine.
Ce sprint a été l’occasion d’assembler une version définitive du deuxième prototype physique avec medium et papier thermogonflé. Cela a permis d’identifier puis d’améliorer plusieurs détails dans les interactions. La vidéo ci-dessous présente le fonctionnement complet du prototype :
Démonstration du fonctionnement de Pictoparle, dans une version quasiment prête à la diffusion.
Pendant ce sprint, j’ai vérifié que la technique de collage que j’avais prévu d’utiliser assurait la tenue attendue. Ce type de colle permanente en ruban est d’une tenue qui semble à toute épreuve.
Une planche prête à être assemblée.
Utilisation d’une colle en rouleau pour réaliser l’assemblage.
Étapes d’assemblage d’une planche en medium avec la feuille thermogonflée.
Pendant ce sprint, j’ai également travaillé sur la taille des QRCodes. Dans les versions précédentes, leur largeur était de 3 centimètres, ce qui imposait d’avoir en haut des planches une extension rectangle.
Un QRcode imprimé, deux QRcodes dessinés à la main.
En diminuant la taille du QRcode, on gagne d’une part en compacité de la planche en retirant cette extension, mais on améliore aussi la détection des planches. Avant cet ajustement, on devait garder statique la planche avec un angle d’environ 30 degrés pour que la détection se fasse. Avec cette nouvelle disposition, l’angle est beaucoup plus naturel (de l’ordre de 10 degrés). Les QRcodes dessinés à la main sont bien sûr moins bien reconnus, il me suffira de les réimprimer pour confirmer leur fonctionnement.
La fabrique de pictoparle a bien sûr été mise à jour pour prendre en compte cette modification, et les fichiers qu’elle génère correspondent à cette nouvelle disposition.
Mise en relief des pictogrammes par gommettes.
Pendant ce sprint, j’ai également réalisé une planche au contenu « fun », composé de courts extraits de dialogues de livres audios, pour expérimenter un usage ludique, complémentaire de la fonction initiale de communication alternative et augmentée. L’objectif est de faciliter l’appropriation de l’outil par le jeu. Pour cette planche, j’ai aussi expérimenté l’utilisation de gommettes, une mise en relief alternative au thermogonflage, et tout aussi fonctionnelle.
Plusieurs aspects ont également été améliorés dans la fabrique de pictoparle, comme identifié lors du sprint précédent. On peut citer l’ajustement de la taille des planches pour un assemblage sans frottement, et la modification de la forme des fenêtres destinées à laisser le son passer des hauts-parleurs, pour éviter une fragilité identifiée précédemment. Des facilités ont été apportées sur la génération du QRcode, sur les messages d’erreur en cas de mauvais glisser/déposer.
L’application Pictoparle a également été améliorée sur de nombreux aspects, à la fois dans la finesse des interactions (détection de la planche, détection des double taps), mais également sur son ergonomie de fonctionnement, en prenant en compte des utilisations atypiques.
La gestion des planches avec contenus partiels (par exemple du son mais pas d’image) a été consolidée, notamment pour permettre la conception de la planche « fun » précédemment citée.
Et la suite ?
Avec ce sprint, je pense être arrivé à une première version diffusable. La période estivale sera l’occasion d’une petite pause dans le développement de Pictoparle, où nous aurons l’occasion de tester l’outil en situation réelle. J’identifierai probablement des améliorations à apporter, mais je pense que ça sera à la marge.
Rendez-vous donc en septembre, pour faire le point sur l’utilisation de cette première version complètement fonctionnelle !
Douzième sprint de l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées de la dernière semaine.
Cette semaine, j’ai travaillé à deux aspects complémentaires : assemblage d’un prototype de boîtier en medium, et amélioration de l’application.
Boîtier en medium
La semaine passée, j’avais finalisé la commande de découpe chez Sculpteo, et j’ai reçu cette semaine par la poste les différents éléments découpés, prêts à l’assemblage. L’ensemble était très bien protégé pour un envoi par la poste.
Éléments protégés par papier bulle
Pièces retenues par du scotch « de peintre »
Sortie d’une planche
Détail de l’assemblage du boîtier
Détail de l’assemblage du boîtier
La tablette dans le boîtier fermé d’une planche
Réception puis premier assemblage du boîtier découpé dans du medium
Le patron de découpe avait été ajusté au plus près, pour que l’assemblage puisse se faire juste en force. Mais certaines petites pièces tenaient difficilement, et je voulais m’assurer que le boîtier ne se démonte pas. Je me suis donc attelé à l’assemblage par collage de l’ensemble des éléments, l’occasion de faire un beau timelaps (je commence à me prendre au jeu du youtube game) :
Assemblage avec superglue des éléments du boîtier de Pictoparle.
J’ai ainsi pu observer quelques menus détails qu’il me faudra ajuster sur le patron de découpe :
Diminuer de quelques dixièmes de millimètres la hauteur de la planche, pour que l’assemblage se passe bien. En effet, j’ai dû poncer un peu les planches pour qu’elles passent sans forcer dans le boîtier.
Ajuster les fenêtres des hauts-parleurs, dont le cadre supérieur est trop fin. En effet, j’en ai cassé un pendant l’assemblage, car il faut forcer un peu pour que les parties s’emboîtent, et je n’avais pas fait attention à la solidité de ces parties fines.
Excepté ça, je suis très très content du rendu final, qui sera je crois pleinement fonctionnel. Il ne me reste plus qu’à tester avec de vraies planches thermogonflées, ça sera pour la semaine prochaine.
Amélioration de l’application
J’ai pris le temps d’améliorer Pictoparle sur plusieurs points, en suivant les observations que j’avais pu faire lors de sa découverte par plusieurs utilisatrices. La vidéo ci-dessous présente l’utilisation de Pictoparle avec toutes ces améliorations :
Utilisation de Pictoparle avec le boîtier en medium, et les améliorations récentes de l’application.
En résumé, voici les améliorations apportées avec cette version :
Amélioration de la détection des QRcodes, en réduisant le temps entre deux tentatives de reconnaissance.
Modification de la première page, plus graphique, et sans texte inutile.
Amélioration de l’interface utilisateur, et notamment de la navigation entre les différentes pages de l’application. L’ensemble est (je l’espère) maintenant plus intuitif.
Ajout de pré-réglages de tailles d’écrans dans les préférences pour simplifier la configuration de l’application.
Ajout d’une planche oui/non, conçue pour une résolution plus petite, permettant une démonstration fonctionnelle sur smartphone.
première page de Pictoparle sur un smartphone
planche conçue pour les petits écrans
Uilisation de Pictoparle sur un smartphone à l’écran d’environ 10 cm de large.
écran d’accueil
choix de la planche
édition de la liste des planches
page des préférences
choix du modèle de tablette ou téléphone
Interface de Pictoparle améliorée pour en faciliter la navigation.
Prochains sprints
Les prochains sprints seront l’occasion de tester de manière plus intensive Pictoparle, et de l’améliorer pour que son utilisation devienne toujours plus confortable. Parmi les améliorations attendues, je pense par exemple à l’amélioration de la détection du QRcode, et au réglage du double tap. Je l’ai évoqué plus haut, il sera également nécessaire d’ajuster un peu le patron du boîtier pour éviter de devoir poncer les pièces à la réception.
Onzième sprint de l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées de la dernière semaine.
Utiliser ses propres voix
La principale contribution visible de ce sprint concerne la possibilité d’utiliser des enregistrements personnalisées plutôt que la synthèse vocale d’Android. Cela a impliqué de modifier à la fois la fabrique de pictoparle et l’application pictoparle. La vidéo ci-dessous en présente le fonctionnement :
Démonstration de l’intégration de sons enregistrés dans l’application Pictoparle.
La fabrique de Pictoparle permet donc d’associer à chaque pictogramme un son enregistré au préalable, que l’on peut charger par bouton dédié, ou par glisser/déposer. Le fichier zip transmis à la tablette contient donc maintenant des fichiers au format mp3 en plus des fichiers image.
Amélioration de la stabilité de l’application
Plusieurs corrections d’instabilité de l’application ont été apportées. En particulier, deux bugs qui faisaient planter l’application sont maintenant corrigés, l’un au démarrage de l’application, l’autre lors de la suppression d’une planche personnalisée.
Préparation de futures expérimentations
Les échanges avec Sculpteo ont permis d’ajuster le modèle pour la découpe laser, et je devrais avoir entre les mains prochainement les pièces d’un boîtier près à l’assemblage.
Nous avons travaillé autour des besoins d’une utilisatrice, en concevant une seconde planche personnalisée, et en travaillant sur des enregistrements et nettoyages de voix pour une écoute fluide.
Dixième sprint de l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées de la dernière semaine.
Cette semaine, il s’agissait de réaliser les derniers ajustements avant d’envoyer le patron pour le découpage laser. J’ai donc travaillé sur plusieurs éléments. Pas de vidéo, mais plein de petits travaux répartis un peu partout sur le projet.
Amélioration de l’assemblage
L’assemblage des planches et de la boîte a été améliorée lors du précédent sprint, mais me semblait encore difficile à prendre en main. J’ai donc ajouté une épaisseur supplémentaire de chaque côté de la planche, pour faciliter le guidage.
Le connecteur en trois couches pour faciliter l’assemblage entre la planche et le boîtier.
Ajout de fenêtres latérales
Afin de laisser un accès aux boutons de la tablette, ainsi qu’à la prise casque et la prise usb, j’ai ajouté des fenêtres latérales au boîtier. C’est ce qui m’a pris le plus de temps, car je voulais rendre les choses les plus flexibles possibles, dans l’idée de pouvoir prendre en charge rapidement d’autres tablettes.
Au premier plan, la fenêtre permettant d’utiliser les boutons de la tablette, et la prise usb. Au second plan, la fenêtre permettant de connecter par une prise jack un casque ou une petite enceinte.
Uniformisation de l’orientation de découpe
Jusqu’à présent, le sens de découpe des pièces pour fabriquer le boîtier et la planche était un peu incohérent. Parfois les pièces étaient découpées face extérieure vers le haut, parfois l’inverse. J’ai donc pris le temps de tout réorienter pour une découpe côté faces intérieures, afin d’avoir un rendu le plus propre possible des arêtes.
J’ai utilisé blender pour vérifier cette bonne orientation, en colorant en bleu la partie supérieure du matériau avant sa découpe. Le rendu ci-dessous confirme que tout est bon maintenant.
La surface supérieure de la planche a été colorée en bleue avant découpage puis assemblage, pour vérifier la cohérence de l’orientation
Protection du papier thermogonflé
Dans le cas d’une utilisation intense, notamment pendant les repas, je cherchais un moyen de protéger les parties en papier thermogonflé. J’ai donc essayé un vernis transparent mat en bombe. Une fois sec, j’ai testé avec succès l’imperméabilité des planches. On pourra donc les laver facilement.
Tests d’imperméabilité après vernissage
Expérimentations de collage
J’ai également fait quelques essais de collage du papier thermogonflé sur le cadre de planche. Le résultat obtenu avec un colle repositionnable en bombe n’est pas très satisfaisant, et je suis revenu comme souvent à la colle « souris » que j’utilise depuis quelques temps pour mes assemblages précis.
Précise, facile à positionner, et très solide, ça semble être la technique la plus adaptée, même avec cette feuille imprimée au sprint précédent avec un problème d’échelle.
Assemblage collé du papier thermogonflé et du carton-bois
Commande d’un découpage
Les patrons de découpage pour machine outil prêtes, j’ai donc commandé une découpe sur le site scuplteo. Basés dans la région parisienne, ils proposent des services très simple d’utilisation de fabrication, notamment pour découpe laser. En attendant que mon fablab de proximité rouvre, c’était la solution la plus simple pour obtenir un premier modèle en medium près à tester.
Interface de vérification de la découpe sur le site du prestataire
J’ai aussi commandé des planches A4 de medium en 2 millimètres d’épaisseur, pour préparer la suite des fabrications.
Quelques planches de medium pour les prochains découpages
Prochains développements
Les prochaines semaines seront l’occasion de tester la première version en medium, probablement avec plusieurs planches, pour tester la manipulation de l’ensemble… À suivre !