En traversant régulièrement la ville avec ma fille qui utilise un fauteuil roulant, j’ai commencé à affiner ma compréhension de l’accessibilité de l’espace urbain. La modélisation de ces infrastructures est d’ailleurs devenu l’un de mes sujets d’étude.
Afin d’illustrer ce que je perçois de ces espaces, j’ai proposé sur twitter un fil consacré à l’étude de l’une des places du plateau central à Clermont-Ferrand, que je traverse très régulièrement. Elle se situe dans ans ce quartier commerçant, touristique et résidentiel qu’est l’hyper-centre de Clermont-Ferrand, aussi appelé plateau central.
Place importante, elle connecte la place Sugny vers Jaude, la place de la Victoire, la rue Massillon vers les petites rues du vieux centre, la rue terrasse et la rue Saint-Genès, très commerçantes.
image @CRAIG 2019
On identifie deux passages piétons matérialisés, un pour franchir la place Sugny, l’autre pour traverser la rue Massillon. Le passage piéton permettant de traverser la rue Saint-Genès se situe quelques dizaines de mètres en amont. Un des territoires privilégier des incivilités automobiles…
Illustration de l’incivilité automobile (#GCUM)
En terme d’accessibilité, la place Sugny est très en pente. L’un des trottoirs commence par un escalier ou par un trottoir étroit entre un mur et des voitures. L’autre trottoir impose de franchir l’un des spots de parking sauvage #GCUM les plus prisés du centre-ville.
Les trottoirs de la place Sugny sont peu accessibles
Le passage piéton permettant de traverser la place Sugny est d’ailleurs souvent impossible à utiliser, les #GCUM ayant pris l’habitude de le considérer comme une zone de stationnement. Mais même sans stationnement, le dévers important rend très difficile son accès.
Illustration d’un stationnement #CGUMLe dévers important de la traversée piétonne place Sugny
Dans ce virage, les #GCUM masquent souvent les piétons, qui lorsqu’ils s’engagent malgré tout sur la chaussée prennent souvent le risque de se faire écraser, car ici aussi, ça roule vite et maladroitement, pour négocier la grande pente en montée, et pour négocier la sortie de cette place encombrée.
On voit donc que la place Sugny et la rue terrasse sont peu accessibles, de même que le trottoir couvert par les arcades de la rue Saint-Genès. Ces voies de circulation piétonnes sont quasiment déconnectées des autres rues au niveau de la place royale. Et je n’ai même pas parlé de l’encombrement de la rue terrasse, infranchissable en fauteuil quand la nuit tombe et que les terrasses sont de sortie.
Schémas de la non accessibilité des cheminements à l’ouest de la place
Prenons un peu de recul, maintenant qu’on a vu la non accessibilité à l’ouest pour regarder ce qui se passe au nord et à l’est.
Zones de cheminements piétons autour de la place royale
Le deuxième passage piéton de la place, qui traverse la rue Massillon est fonctionnel, même si les stationnements intempestifs sur les emplacements marqués en jaune (stationnement interdit) rendent la co-visibilité assez difficile.
Illustration par un tweet de la co-visibilitéMauvaise co-visibilité du passage piéton traversant la rue Massillon
Continuons avec la dernière traversée, celle de l’entrée de la place de la Victoire. Le trottoir de gauche est tout simplement infranchissable. Une alternative consisterait à emprunter la chaussée jusqu’au début de la place Sugny, mais on a déjà dit que c’était un espace de choix des #GCUM.
Accès impossible.
Un trottoir infranchissable
On peut aussi imaginer poursuivre le long du trottoir pour trouver plus loin un moyen de franchissement. Effectivement, un peu plus loin, on trouve un franchissement à niveau. Mais on tombe alors dans le royaume des terrasses, qui encombrent les espaces de circulation publiques, rendant impossible le franchissement.
Une bonne nouvelle pour les usages piétons de la place de la Victoire à @ClermontFd, où la privatisation des espaces publics rendait quasiment impossible le cheminement piéton sur les trottoirs de la place…https://t.co/oQUMHd9Jjm
Peut-être un jour ces terrasses permettront le passage des usagers piétons de la placeLe passage à niveau encombré de terrasses
À noter qu’une fois engagés sur la place de la victoire depuis le trottoir de droite, on est très vite contraints de rejoindre la chaussée pavée, laquelle est bordée d’un côté par les terrasses, de l’autre par une marche de plus de 10 cm pour rejoindre le milieu de la place. Si une voiture arrive, t’es foutu.
Rue piétonne, véritable canyon urbain pour les usagers en fauteuil roulant
En conclusion, voici donc une place quasiment infranchissable, peu importe d’où l’on vienne.
Description : un plan récapitulatif de tous les trajets impossibles aux abords de cette place.
Alors bien sûr, j’ai simplifié. Je n’ai pas parlé des revêtements des trottoirs souvent très mauvais, des dalles manquantes, des nombreux dévers inutiles, des automobiles qui foncent dans les aires piétonnes où il n’y a pas de trottoir refuge. Les abords de cette place sont particulièrement impratiquables.
À bientôt pour une nouvelle chronique de la non accessibilité ordinaire !
Ma fille est touchée par une maladie génétique rare, qui entraîne beaucoup de conséquences sur sa santé et sur le quotidien, comme j’en ai notamment parlé dans le podcast Quand même pas, Papa !.
On peut parfois se sentir démuni malgré l’accompagnement des professionnels qui entourent notre proche malade, et être un peu perdus quand il s’agit de comprendre la maladie, et de suivre l’avancée des prises en charge médicales et des avancées de la recherche.
Dans cet article, je raconte comment je procède pour me tenir informé de ces actualités, afin d’y puiser des idées d’accompagnement et d’aménagements pour ma fille, mais aussi pour prendre du recul par rapport au quotidien, en regardant ce que les scientifiques et médecins apprennent régulièrement sur la maladie.
Identifier les sources d’information utiles
Faire une veille sur les avancées d’une maladie, ça n’est jamais simple. D’une part parce que l’information est éparpillée à plein d’endroits, mais aussi parce que ces sources sont souvent très techniques, scientifiques, pointues. Plutôt que de chercher à tout lire, il est préférable d’identifier quelques sources qui font un travail de synthèse et de sélection de l’information.
On peut par exemple repérer et suivre les publications des associations nationales qui regroupent des personnes directement ou indirectement concernées par la maladie. Dans le cas de la maladie de ma fille, il y a l’association française Vaincre les Maladies Lysosomales, l’association anglaise BDFA, ou encore l’association américaine BDSRA. Parfois ces associations sont regroupées en fédération internationale, qui peut être plus ou moins active. Pour la maladie de ma fille, on repère la Batten Disease Internationale Alliance, mais qui n’est pas très active.
Certaines équipes de recherches ou centres cliniques spécialisés proposent des sites internet regroupant une information fiable et complète sur la maladie. Dans mon cas, je peux par exemple consulter le site NCL ressource, animé par une chercheuse (Sara Mole) spécialisée sur la question, ou encore NCL-Net, alimenté par deux chercheurs et praticiens hospitaliers (Alfried Kohlschütter et Angela Schulz).
Avec ces quelques sources, on peut suivre efficacement l’actualité de la maladie. Mais si on veut aller plus loin, on peut aussi regarder régulièrement ce que publient les laboratoires qui travaillent sur ces maladies, commeAmicus Therapeutics dans le cas de la maladie de Batten.
Pour le suivi et la prise en charge quotidienne, on peut trouver de l’aide et des idées auprès des associations de proches aidants, ou encore en suivant les publications d’équipes spécialisées dans la veille sur ces questions, comme par exemple le centre de documentation de l’Équipe Relais Handicap Rares d’Auvergne Rhône-Alpes.
Il existe aussi des particuliers qui font un travail de veille et de synthèse, et qui publient sur internet ce travail, comme par exemple le site que j’anime sur la maladie de ma fille : https://cln.jmfavreau.info/.
S’organiser pour ne pas passer trop de temps
Une fois qu’on a identifié les sources possibles d’information, il faut s’organiser pour les suivre. Beaucoup de ces sources sont en anglais, ce qui est un frein à la compréhension. Il existe heureusement aujourd’hui de très bons outils qui proposent une traduction automatique permettant d’accéder à une version française (un peu maladroite, mais fonctionnelle) de ces documents. Je pense par exemple à l’impressionnant outil en ligne deepl : https://www.deepl.com/.
On peut ensuite identifier les listes de diffusion disponibles, et s’y abonner. On reçoit ensuite régulièrement un email, généralement sous forme de newsletter, qui fait la synthèse de l’actualité de la maladie. C’est ce que proposent par exemple BDFA, BDSRA, ou le centre de documentation de l’équipe relais handicap rare, des structures citées plus haut. Une bonne pratique consiste alors ranger ces messages dans un dossier dédié de sa boîte mail, soit en les déplaçant à la main à la réception, soit en créant des filtres pour que ces messages se rangent automatiquement. On peut alors les consulter une fois par semaine ou par mois par exemple.
On peut aussi repérer les pages facebook de ces différentes associations, et s’y abonner (en configurant l’abonnement pour que les publications soient montrées en priorité).
Enfin, certains sites intéressants n’ont pas ces mécanismes de notification, et j’essaye d’aller les consulter de temps en temps.
Il existe aussi des outils comme les alertes des moteurs de recherche qui permettent d’avoir régulièrement une synthèse des pages internet récemment publiées sur un sujet, mais ça commence à faire beaucoup de trafic.
Faire la synthèse
Une fois qu’on s’est organisés pour recueillir toutes ces informations, on peut s’organiser pour en faire la synthèse. Pour ma part, c’est ce que je fais par exemple sur le site que j’alimente sur la maladie de Batten, ou sur la page facebook dédiée. Mais ça peut aussi être dans un document sur son ordinateur, ou sur un cahier. Cela me permet d’avoir un endroit où retrouver toutes les informations qui m’ont semblé importantes, et d’avoir un moyen de les partager à l’occasion avec les personnes qui s’intéressent à la même maladie.
Je trouve aussi important de partager ces recherches avec d’autres personnes. Dans mon cas, je partage cette veille scientifique avec ma sœur Émeline Favreau, que je remercie ici pour son accompagnement depuis toujours. je trouve que les groupes privés facebook sont aussi de bons moyens pour partager ces informations avec d’autres parents. Sur la maladie qui focalise mon attention, je suis inscrit à plusieurs groupes en langue française et anglaise, et nous y échangeons à un rythme variable de plein de questions liées à la maladie. Un bon endroit pour parler de l’actualité, mais aussi des choses concrètes de la vie ! Il faut tout de même ne pas oublier que les informations qui sont échangées dans ces groupes ne peuvent être considérées comme des vérités, il est important à chaque fois de repérer les sources à l’origine de ces informations, en faisant confiance aux informations issues d’acteurs de confiance (équipes de recherche, équipes médicales, etc).
Aller encore plus loin
Quand on est curieux, que l’on a du temps, et qu’on a l’habitude de lire beaucoup d’articles scientifiques, on peut aussi choisir de faire une veille scientifique complète sur la maladie.
On s’intéresse alors aux projets de recherche spécialisés sur la question, dans mon cas comme le projet BATcure qui était porté par Sara Mole. Ou encore en identifiant les conférences dédiées à cette maladie, où les chercheurs viennent présenter leurs avancées. Dans mon cas, il s’agit de la conférence NCL, qui a lieu une fois tous les 18 mois.
On peut aussi utiliser les moteurs de recherche dédiés aux publications scientifiques, comme google scholar, et activer des notifications sur les articles qui traitent de la maladie.
Mais faire une telle veille demande énormément de temps, et d’expertise, ce que tout le monde ne peut pas déployer. Heureusement, c’est le travail assuré par les associations dont je parlais en début d’article. On peut donc leur faire confiance pour suivre toutes ces actualités et les partager avec nous !
Depuis que la maladie de ma fille est connue, je m’intéresse à la recherche médicale, et à la manière dont les produits pharmaceutiques sont évalués, puis commercialisés. J’ai résumé ces idées dans une page dédiée sur le site que je maintiens au sujet de la maladie de ma fille. J’ai aussi progressivement consolidé mes connaissances en biologie cellulaire, pour comprendre les mécanismes en jeu dans sa maladie, ce que j’ai aussi tenté de vulgariser dans une page dédiée.
Je propose donc dans cet article de formuler de manière posée et vulgarisée comment fonctionne un essai clinique, et ce que les vaccins sont parmi les traitements médicaux. En effet, les différentes discussions que j’ai pu avoir ces derniers mois me font penser que beaucoup de personnes n’ont pas eu l’occasion d’avoir accès à un résumé clair de ce qu’est un vaccin, ou un essai clinique.
Les essais cliniques
Les essais cliniques sont la dernière phase dans la recherche médicale, quand on conçoit une solution thérapeutique. Elle arrive après les essais pré-cliniques, lesquels sont généralement réalisés sur des tissus vivants plus ou moins complexes : tissus biologiques in vitro, espèces unicellulaires, modèles animaux plus ou moins gros.
Les essais cliniques sont très encadrés par les différentes agences des médicaments (aux États-Unis d’Amérique, en Europe, etc), qui valident ou non les demandes des firmes, en se basant sur les résultats des étapes précédentes pour valider ou non chacune des phases.
Ainsi, dans le cas du développement d’une solution thérapeutique, on observe toujours les mêmes phases, que l’on peut représenter par ce schéma. Évidemment, les durées sont ici données à titre indicatif, et correspondent aux pratiques dans le cas général, hors pandémie.
Les différentes étapes dans le développement d’une solution thérapeutique
Sur cette frise chronologique, on retrouve les étapes suivantes :
La recherche pré-clinique : pendant cette étape, on part d’une idée originale, et on explore scientifiquement tous les aspects de cette piste, depuis sa réalisation jusqu’aux possibles conséquences non désirées.
La production et l’autorisation : une fois qu’une approche semble pertinente, on se prépare aux essais cliniques. Il faut pour cela produire le traitement en assez grande quantité, et en parallèle obtenir l’autorisation des autorités nationales pour pratiquer ces tests cliniques.
Premiers essais cliniques, phase I et IIa : pendant cette première étape, on utilise un protocole très précis pour tester le traitement sur quelques patients. Dans cette étape, on étudie la dose optimale, et les possibles effets secondaires non désirés.
Essais cliniques, phase IIb et III : pendant cette deuxième étape, on utilise un protocole plus large pour tester le traitement sur un nombre plus important de patients. Dans cette étape, on compare l’efficacité du traitement, par rapport à d’autres solutions, ou à un placebo.
Démarches pour l’obtention d’une licence de commercialisation : cette étape est spécifique à chaque pays ou union de pays, et prend généralement une année.
Ainsi, quand on entend que les différents vaccins contre le COVID sont en phase III, et donc n’ont pas encore été testés, il s’agit là d’une mauvaise interprétation de ces différentes étapes : la phase I et II, servant à évaluer les effets secondaires et à ajuster les dosages a déjà eu lieu. La phase III quant à elle sert à évaluer l’efficacité du vaccin, et c’est cette phase qui n’était pas encore finalisée au moment de l’utilisation massive du vaccin sur la population mondiale.
Enfin, les vaccins contre le covid sont les thérapies ayant été le plus suivies sur ses effets secondaires, notamment par l’ampleur de son utilisation. Toute personne intéressée peut consulter le point mensuel proposé par l’ANSM, très détaillé, qui observe en tant qu’acteur public les conséquences de l’utilisation de ces vaccins. Aucun autre essai clinique ni thérapie n’a fait l’objet d’autant d’études, de contre-évaluations, et d’observation de résultats à grande échelle. Pourtant, tous les autres médicaments sont aussi passés par les mêmes étapes (recherche pré-clinique, production et autorisation, essais cliniques phases I et II, phase III, puis obtention d’une licence de commercialisation), exception faite de l’homéopathie qui en général n’arrive pas à montrer son efficacité en phase III.
Les vaccins
Le principe d’un vaccin, peu importe sa technologie, vise à consolider le système immunitaire pour le préparer à se défendre face à un virus. Pour rappel, le système immunitaire est capable d’identifier une cellule étrangère grâce à des marqueurs chimiques. Il fabrique alors des anticorps pour lutter contre les cellules étrangères. Cette connaissance des cellules étrangères passées est assurée notamment par les globules blancs et les lymphocytes T, qui peuvent relancer la production d’anticorps si une cellule étrangère déjà connue est de nouveau identifiée.
Le principe des vaccins consiste donc à présenter au système immunitaire une cellule inoffensive mais à la signature chimique semblable à un virus que l’on veut combattre, pour que le système immunitaire apprenne à la reconnaître, et qu’il soit plus tard en mesure de se défendre quand il rencontrera le virus correspondant.
Si beaucoup de vaccins nécessitent un ou plusieurs rappels, c’est parce que le niveau de défense immunitaire atteint grâce à une dose de vaccin décline au fil du temps, et ne permet pas ensuite au système immunitaire d’être assez réactif pour réagir face au virus.
Chaque virus étant différent (vitesse de mutation, vitesse de propagation, dangerosité, etc), et les vaccins n’étant jamais efficaces à 100%, on observe donc des recommandations différentes suivant les virus.
Les vaccins à ARN messagers qui sont au cœur de la campagne de vaccination contre le COVID fonctionnent non pas en introduisant en entier une cellule étrangère inoffensive, mais en permettant à nos cellules de produire temporairement les marqueurs chimiques imitant la présence de ces cellules indésirables. Le système immunitaire réagit alors de la même manière qu’avec un vaccin classique, en apprenant à reconnaître ces marqueurs. Après quelques temps, on observe un arrêt de la production de ces marqueurs, correspondant à la destruction de l’ARN messager introduit (ces protéines n’ayant qu’une durée de vie limitée). Pour lire plus en détail sur cette question, on peut par exemple lire cet article intitulé « Comment fonctionnent les vaccins à ARN (et à ADN) ? ».
Le braille fait partie des outils bien connus pour écrire et lire avec les doigts. C’est un outil essentiel de l’accès à la culture et à l’éducation pour les personnes en situation de handicap visuel.
Mais comment écrire les mathématiques, qui souvent utilisent des figures, et des équations complexes. Et d’ailleurs, comment ça marche vraiment, le braille ? Et quel est le rapport avec le LaTeX, ce langage d’écriture de documents scientifiques ?
L’activité de l’association VML est essentielle pour plein de raisons : elle permet aux personnes concernées (porteuses de maladies lysosomales, proches) de trouver de l’information, du soutien, des moments de répit, elle structure et met en relation les différents acteurs au niveau national et international autour de ces maladies, elle réalise une veille sur l’actualité de recherche, et même finance la recherche sur des sujets qui parfois ne sont pas soutenus par les autres financeurs.
Chaque année, le premier dimanche d’octobre, les membres de l’association organisent un peu partout en France et ailleurs la balade du lysosome. Cette année, nous y participons aussi en organisant une marche intitulée « Ensemble pour VML à Clermont-Ferrand ». C’est le 3 octobre, et on se retrouve à 15h au parc du Bois-Beaumont (plus d’infos sur la carte dessinée, ou en me contactant directement) pour parcourir le chemin vert, le long de l’artière.
Cliquez sur la carte pour retrouver le trajet et les détails d’organisation.
Pour les personnes qui vivent au quotidien avec la maladie, ce moment est important car il permet de se sentir entourées, de sentir que l’entourage et même un peu plus ont conscience de cette maladie, et sont solidaires, pour vaincre les maladies lysosomales.
Et puis que vous participiez ou non à la balade du lysosome le 3 octobre, je vous demande de participer (même pour quelques euros) à la cagnotte que j’ai initiée avec ma fille en soutien à Vaincre les Maladies Lysosomales à l’occasion de cet événément.
Dans un article précédent, je racontais comment utiliser pulseaudio et jack pour envoyer dans une visio le son de n’importe quel logiciel.
Il arrive aussi que l’on veuille utiliser ce genre de routages pour enregistrer dans un DAW (digital audio workstation) le son de n’importe quel logiciel. Jack est un serveur son super flexible, qui permet de faire un grand nombre de routages, et ce de manière très simple grâce à l’interface claudia.
Je vous propose donc une vidéo qui raconte de manière très simplifiée comment tout cela fonctionne, avec des petits dessins, mais aussi des vrais clics dans les logiciels.
Le dernier article sur mes lectures date un peu, car j’ai pris l’habitude de les évoquer sur twitter. Sur la plateforme de microbloging (comme on disait autrefois), je publie au fil de ces lectures quelques extraits qui correspondent aux discussions en cours… Mais après une année, j’ai un peu perdu la vision d’ensemble que permettait auparavant les posts sur ce blog, sur les thématiques dont je parle ici.
Voici donc sous forme d’un article récapitulatif quelques références à des livres que j’ai aimé lire cette année.
Du son
Le son est toujours une question qui m’intéresse, depuis la création radiophonique jusqu’à l’écoute et l’écologie sonore. Si je lis moins sur la question qu’il y a quelques années, j’ai tout de même trouvé quelques titres qui ont vraiment attiré mon attention.
Du son au signe, de Jean-Yves Bosseur
Je connais le travail de Jean-Yves Bosseur depuis près de 10 ans, grâce au festival Musiques Démesurées, où il avait été invité à plusieurs reprises. Ce musicologue raconte de manière passionnante l’histoire de la notation musicale. Du son au signe raconte cela, de manière chronologique. Si la qualité de la mise en page et de reproduction des figures laisse un peu à désirer, l’histoire qu’y déroule Jean-Yves Bosseur est captivante.
J’ai découvert le musicologue Jean-Yves Bosseur grâce au festival @musiquesdem il y a quelques années. L’écouter parler de l’écriture de la musique est passionnant. Dans ce livre, il revient sur l’histoire de la notation musicale, principalement en Europe et aux États-Unis. pic.twitter.com/qz1C4KiGrb
le fil consacré au livre Du son au signe, sur Twitter.
Audimat numéro 15
Je ne regrette vraiment pas mon abonnement à Audimat, où les articles balayent une grande diversité de questions, à la frontière entre son, production musicale et société. Le numéro 15 est aussi intéressant que les précédents. Déroulez le fil twitter pour en trouver quelques détails.
Le fil consacré au numéro 15 d’Audimat sur Twitter
It’s a teenager dream, Dominique Blanc-Francard
Dominique Blanc-Francard (DBF) est l’un des producteurs et ingénieur son français les plus actifs de la deuxième moitié du XXe siècle. Dans cette autobiographie, co-écrite avec Olivier Schmitt, il parcourt sa trajectoire professionnelle, en racontant l’évolution matérielle et technique, les rencontres artistiques, les succès et les productions plus confidentielles. Je l’ai lu d’une traite, comme une promenade au cœur d’un univers riche en aventures, rencontres et explorations en tout genre.
Lecture estivale. On suit DBF dans l’aventure de sa vie, de studios en studios. Plein d’artistes, d’anecdotes, de technologies qui se succèdent au fil des ans. Captivant ! pic.twitter.com/0Y2BAC5MRf
Le fil consacré à It’s a teenager dream sur Twitter.
Electroclit” #1
Un fanzine découvert grâce aux conseils de Claude, qui raconte les débuts des musiques électroniques, en tissant au fil des portraits des liens entre facteurs et factrices d’instruments, musiciens et musiciennes… En proposant une alternative solide aux rétrospectives qui ignorent la place des femmes dans cette histoire, ou au contraire les utilisant comme des arguments commerciaux avec futilité.
Découverte très chouette grâce à @cybertooth, reçu ce matin dans ma boîte aux lettres.
Mettre en ondes la fiction radiophonique, de Blandine Masson
Dans ce livre publié en 2021, Blandine Masson raconte les rapports tumultueux entre théâtre et radio en France, où plusieurs écoles se sont exprimées en parallèle : soit en envisageant la radio comme un outil de rediffusion des grandes pièces de théâtre, permettant de rendre accessibles à toutes et à tous cette expression artistique, soit comme un espace où expérimenter une nouvelle manière de penser le théâtre, en exploitant toutes les possibilités du média. Certaines décennies ont vu l’une des écoles dominer, parfois l’autre. Parfois le théâtre a même failli disparaître de l’antenne de Radio France, jusqu’à ce que le podcast vienne sauver ces pratiques. On découvre aussi dans ce livre l’importance du festival d’Avignon dans cette histoire.
Sur le chemin du retour de @LibClermont, j’écoute Nos géographies de @DomRousset sur @franceculture, qui discute avec ses invités de la fabrication des atlas.
Pourquoi le nord est-il en haut ? petite histoire des conventions cartographiques, de Mick Ashworth
Évoqué dans le tweet un peu plus haut, Pourquoi le nord est-il en haut ? petite histoire des conventions cartographiques propose de très nombreuses reproductions de très belles cartes, qui interrogent à travers le temps et l’espace les pratiques cartographiques. On s’y promène avec plaisir, et les pages se succèdent, plus captivantes les unes que les autres sans que l’on s’en aperçoive. On y retrouve pas mal d’idées connues des curieux de la cartographie, mais aussi plein d’exemples qui illustrent et permettent de mieux comprendre encore.
L’atlas des frontières, de Bruno Tertrais, Delphine Papin et Xemartin Laborde
Lui aussi évoqué dans le tweet un peu plus haut, L’atlas des frontières n’est pas un livre militant, mais explore bon nombre de questions et problématiques autour des frontières. On y trouve des curiosités administratives, des usages et des lois, des histoires de peuples et d’humains. C’est à la fois captivant et illustre parfaitement l’absurdité des lois humaines qui partitionnent le monde.
The Red Atlas, de John Davies et Alexander J. Kent
Découvert grâce à une vidéo de Map Men, c’est le premier livre en langue anglaise consacré aux cartes que j’ai eu envie de lire. On y retrouve l’enquête de passionnés, qui essayent de retrouver grâce à ces cartes ayant émergé après la chute du mur comment les services secrets de l’URSS ont réussi à cartographier pendant plusieurs dizaines d’années les territoires du bloc de l’ouest, d’une manière précise, uniforme et rigoureuse. On découvre au cours des chapitres les erreurs ou biais de représentation qui permettent de retracer les outils : cartes civiles des pays de l’ouest, enquêtes sur place, anciennes cartes militaires allemandes, vues satellites…
Et cette semaine, je continue mes lectures avec ce titre devenu un classique « How to lie with maps », dans sa troisième édition. pic.twitter.com/Rhyyj35REF
Le fil consacré à deux livres en anglais, consacré aux cartes : The Red Atlas, et How to Lie With Maps
How to Lie With Maps, de Mark Monmonier
En faisant l’acquisition d’un premier livre en anglais, je me suis laissé convaincre et j’ai aussi commandé un exemplaire de cette bible des étudiants anglophones en cartographie, comment mentir avec les cartes. L’ouvrage raconte par le menu la manière dont les auteurs de cartes tordent volontairement ou involontairement la réalité, pour réussir à présenter ce qui les intéresse, en utilisant ces pratiques au service du lecteur, ou au contraire pour l’influencer.
Très simple d’accès, il reprend toutes les notions élémentaires de la cartographie, et est effectivement un ouvrage très pédagogique pour le débutant.
La ville, les humains, la nature
En prolongement de la cartographie, l’un des sujets d’intérêt que j’aime à explorer est la ville, ou la manière d’habiter. Évidemment, on en arrive aussi à parler de la nature.
Les abandonnés, histoire des « cités de banlieue », de Xavier de Jarcy
En suivant le compte Mémoire2Ville, j’ai découvert au hasard d’un échange ce livr ede Xavier de Jarcy, que j’avais déjà lu avec plaisir dans Le Corbusier, un fascisme français. Dans Les abandonnés, on parcourt l’histoire de l’établissement des grands ensembles chaque chapitre égrainant une année depuis les années 30 jusqu’aux années 70, pour évoquer la politique de l’état, poussée par les hygiénistes, tiraillée entre dépenses militaires et explosion de la natalité. On y apprend que contrairement à une idée reçue, la France a bien moins construit que ses voisins allemands et anglais à la sortie de la guerre, et comment la misère du logement ultra précaire a durée de nombreuses années malgré la construction de ces grands ensembles. On apprend aussi que pour 6000 logements, il était préconisé de ne pas implanter de bar, mais qu’une église, deux écoles, voire quelques commerces étaient plutôt envisagés. On découvre aussi que dans les années 50, on estime qu’une place de stationnement pour 5 foyers est largement suffisant, et que l’on préfère économiser en infrastructure de voirie en ne construisant que quelques voies principales, et en ajoutant des voies de désertes perpendiculaires, non traversantes. L’idée d’avoir de grands espaces verts pour que les gens s’épanouissent s’effondre rapidement avec l’arrivée de l’automobile pour tous, et de l’ennui causé par le peu d’équipements financés, ces cités dortoir ne proposant aucune activité, ni accès pratique aux quartiers équipés des centre-villes…
Les abandonnés, histoire des « cités de banlieue », de Xavier de Jarcy
Où sont les « gens du voyages » ? inventaire critique des aires d’accueil, de William Acker
Twitter est un outil intéressant pour suivre des initiatives, des chercheurs, des communautés que les médias ne savent pas raconter. C’est ainsi que je suis William Acker, un juriste Voyageur. Son ouvrage Où sont les « gens du voyages » ? inventaire critique des aires d’accueil est à la fois très facile à lire, mais en même temps terriblement dur par les idées qu’il développe et qu’y y sont étayées de nombreuses références et exemples concrets. On y retrouve tout le racisme d’état, des citoyens et des collectivités locales envers les Voyageurs. À lire de toute urgence pour mieux comprendre beaucoup de choses que l’on entend parfois évoqué d’une manière tellement négative et non constructive par les médias.
Entamé aujourd’hui, je dévore le livre de @Rafumab Détaillé, posé, riche et tellement explicite de l’attitude honteuse et méprisante de état et de collectivités locales… pic.twitter.com/4PPTAVWwCi
L’année dernière, j’avais adoré lire l’architecture de la voirie d’Éric Alonzo. Je n’ai pas réussi à résister à l’envie de lire son autre titre « du rond-point au giratoire », qui s’il partage quelques exemples et références avec le volume consacré à la voirie, entre bien plus dans les détails de l’histoire de ces infrastructures de croisements. À la fois historique, politique, signe de changements sociaux et de développement des techniques modernes d’urbanisme, le giratoire est raconté et illustré avec un superbe enthousiasme par Éric Alonzo.
En continuant à lire Éric Alonzo, cette fois-ci dans « Du rond-point au giratoire », je découvre la génèse des autostrades urbaines de Jacques Gréber au début des années 1930. pic.twitter.com/oeMhxf1doo
Les gens de la revue Audimat continuent leur chemin, en proposant le numéro zéro d’une revue que j’aimerais voir naître avec plaisir. Patchwork qui regarde la ville et la manière d’habiter, parfois sous l’angle de la fiction, parfois depuis l’article sociologique ou l’essai politique, il alimente la réflexion sur la manière d’habiter.
Dans ma boîte aux lettres ce midi, le numéro zéro de la revue Habitante, aux @AudimatEditions. Déjà abonné et à chaque fois passionné par les numéro de la revue Audimat, je suis impatient de découvrir leur proposition plus géographique. pic.twitter.com/0kX62rSm5p
J’ai dévoré en quelques jours, Arbres en péril, de David Happe, qui raconte la trépidation de l’activité humaine vue depuis le rythme des arbres. On est foudroyés par l’état des lieux proposé par l’auteur, qui permet de comprendre les conséquences de toutes ces espèces que l’on classe maintenant comme en voie de disparition.
On comprend aussi la différence entre ces arbres domestiqués que l’on duplique pour l’agrément ou la culture des arbres sauvages, qui forment des forêts à l’écosystème riche, et non reproductible autrement qu’en les laissant s’établir dans leurs espaces initiaux.
Les arbres en péril (couverture)
Cette semaine sur @LSDseriedoc, une série qui permet d’entendre la trépidation humaine vue depuis le rythme des arbres. Cette trépidation racontée par @ExpertHappe dans « Arbres en péril », que j’ai lu en août et qui a marqué mon été.https://t.co/AI9Rl6z5hwhttps://t.co/pddLPKwfet
Opération vasectomie : histoire intime et politique d’une contraception au masculin, d’Élodie Serna
Dès les premières pages d’Opération vasectomie, j’ai compris combien cette technique de contraception avait une dimension politique. Tour à tour brandit par les anarchistes comme un moyen d’émancipation face aux injonctions d’un système capitaliste, étatique et nataliste, puis par les hygiénistes et eugénistes comme un outil de contrôle de la reproduction des représentants du peuple, la vasectomie est encore considérée dans de nombreux pays comme une pratique courante, au service d’une contraception consciente et réfléchie.
Ce n’est pas vraiment le cas en France, où l’on retrouve encore dans l’ignorance collective de l’après traque des anarchistes, et de la fin d’une pensée ouvertement eugéniste.
Le pain
Depuis plus d’un an, j’explore la pratique de la boulangerie au levain. J’y ai d’ailleurs consacré un blog, où j’ai récemment proposé deux articles sur des lectures qui alimentent ma pratique et réflexion.
Notre pain est politique, les blés paysans face à l’industrie boulangère
Notre pain est politique, issu d’un collectif explorant des pratiques paysannes dans la culture du blé, sa transformation en farine puis en pain, et accompagné par la revue Z. Il permet de bien comprendre la différence entre le concept flou de blés anciens, et celui des blés population. Il raconte une pratique plein d’explorations, de recherches collectives et individuelles, qui construit un chemin alternatif à l’industrie agroalimentaire. Le groupe à l’origine de ce livre se réparti sur le territoire Auvergne Rhône-Alpes, et ça donne l’envie d’aller les rencontrer…
En cette période propice à la lecture, j’ai dévoré « Notre pain est politique – les blés paysans face à l’industrie boulangère », et je vous le recommande chaudement.
Il raconte le travail des membres du Groupe blé de la région Auvergne-Rhône-Alpes.https://t.co/OSbGIuItQO
Le traité de boulangerie au levain, de Thomas Teffri-Chambelland
Il y a un an, j’avais parcouru le traité de boulangerie au levain, mais je le trouvais un peu trop théorique et loin de ce que je comprenais du pain. Après une année de pratique, je me suis replongé dedans, et j’y ai trouvé énormément de réponses à mes interrogations, et même des réponses à des questions que je n’avais pas encore réussi à formuler.
Deux volumes que je prendrai le temps de reconsulter régulièrement, je suis convaincu que j’y trouverai régulièrement de quoi alimenter mes réflexions.
Lecture estivale et ressource incontournable pour qui pratique le pain au levain : le traité de boulangerie au levain.https://t.co/7wflZhzhIb
Du handicap à l’accessibilité : vers un nouveau paradigme, de Frédéric Reichhart
Frédéric Reichhart présente dans ce livre assez technique la construction de la notion d’accessibilité dans les textes et dans la loi, en France. On découvre combien c’est à la fois une bataille de longue halène, semé de frileuses avancées légales, et souvent suivies d’aménagements pour assouplir les choses. Voilà comment cette question progresse très doucement, depuis les premières avancées liées à l’accessibilité des personnes à mobilité réduite (et la très puissante APF), jusqu’aux avancées plus récentes, permises notamment par les idées insufflées depuis les pays anglosaxons.
En échangeant autour du podcast de proche aidant que je publie, on m’a conseillé quelques lectures, comme les différents livres de Blandine Bricka. J’ai eu l’occasion d’en lire deux, construits comme des entretiens. Le premier, sous-titré « paroles d’aidants », présente une relative diversité de conditions, et raconte ces acteurs et actrices de l’ombre, parfois les seuls ponts entre les personnes en situation de handicap et le reste de la cité. Le deuxième, sous-titré « être accompagné au quotidien », présente le vécu de personnes concernées, bénéficiaires d’un accompagnement de la part de leurs proches, ou de personnes rémunérées pour cela. Une manière d’alimenter la réflexion sur ce vécu parfois complexe.
Deux volumes de Des liens (presque) ordinaires de Blandine Bricka : paroles d’aidants, et être accompagné au quotidien.
Deuxième saison de développement l’application Pictoparle, un outil de communication alternative et augmentée destiné aux personnes en situation de déficience visuelle rencontrant des difficultés dans la communication orale. On peut bien sûr aller voir ce qui s’est passé lors des sprints précédents, car je parlerai ici uniquement des avancées récentes.
Après l’annonce de la saison 2 du développement du pictoparle, j’ai commencé doucement à corriger quelques points problématiques, notamment sur l’assemblage de la boîte. Mais les choses ont traîné, et j’ai un peu endormi le projet.
En mars 2021, deux de mes correspondantes ont exprimé leur envie d’utiliser Pictoparle pour faciliter la communication avec de possibles utilisatrices. Voilà qui redonne la motivation à améliorer l’outil, en suivant les recommandations identifiées en septembre.
La suite de cet article raconte les améliorations apportées à Pictoparle pendant cette deuxième année.
Amélioration de la fabrique de pictoparle
J’ai commencé par corriger quelques bugs repérés dans la dernière version publiée de la fabrique du pictoparle. En septembre, j’avais ajouté une seconde tablette aux matériels cible, mais je n’avais pas suffisamment testé cet ajout, et un certain nombre de fonctionnalités étaient cassées.
J’ai ensuite ajouté une fonctionnalité évoquée dans l’annonce de la saison 2, et proposée lors d’une discussion avec Jérémy. Lorsqu’on conçoit une planche, on peut exporter au format zip la planche pour l’intégrer à la tablette. Depuis quelques temps, on pouvait recharger dans l’éditeur un zip exporté, mais seule une partie de l’interface était rechargée. C’est maintenant toute l’interface d’édition qui est sauvée, y compris les configurations liées à la tablette, et à la fabrication de la couverture par découpe laser.
Enfin, les fichiers générés par la fabrique de pictoparle contiennent maintenant dans leur nom le modèle de tablette pour laquelle ils ont été conçus, afin d’éviter les erreurs d’étourderie lors de la fabrication du dispositif. J’avais eu une mauvaise expérience en septembre, en me trompant de modèle lors de la génération des fichiers pour la découpe laser de planches.
Amélioration des documents à imprimer
Une partie des documents générés pour la fabrication des planches est au format pdf, l’une des pages imprimable sur papier thermogonflé, l’autre pour impression papier avec le QRcode.
Pendant ce sprint, j’ai amélioré les informations ajoutées à la page destinée au QRcode, afin que le document contienne un maximum d’informations pour en faciliter l’usage. En particulier, il me semblait important d’avoir un maximum d’information imprimées, pour que les utilisateurs puissent tracer au mieux ce qu’ils font.
J’ai aussi modifié les informations affichées sur la page thermogonflée, pour que les voyants aient accès au nom associé à chaque pictogramme sans avoir à déclencher le son. C’est une fonctionnalité qui m’avait été demandée par des accompagnants occasionnels, afin de faciliter l’appropriation de l’outil par une nouvelle équipe.
document prêt à l’impression, contenant une page pour le thermogonflage, et une page pour l’impression du QRcode.
Amélioration des fichiers de découpe de boîte
Quelques corrections ont été apportées suite aux nouvelles expérimentations de découpe réalisées en septembre. Ces tests avaient mis en évidence des erreurs d’alignements de crénelage pour la deuxième tablette introduite, et le besoin d’un mécanisme de détrompage, pour éviter des assemblages erronés.
Afin de faciliter la suite du développement, j’ai également fait un peu de réécriture de code. Cela fait, j’ai introduit des espaces et des chanfreins sur les crénelages pour faciliter l’emboîtage des éléments, l’un des points critiques identifiés au Débrouillo’Lab en septembre.
extrait du patron de découpe généré pour la fabrication de la boîte, avec ses crénelages chanfreinés et de largeur ajustée pour faciliter l’assemblage.
En suivant les autres remarques des beta testeurs du Débrouillo’Lab, j’ai ajouté une numérotation à graver sur chaque pièce, pour faciliter l’assemblage.
capture d’écran du logiciel d’édition de fichiers dxf montrant les numérotations à graver pour faciliter l’assemblage.
J’ai également corrigé quelques détails pour que l’assemblage des planches et de la boîte se passe mieux.
Amélioration de l’application
Lors des essais passés, j’avais à plusieurs reprises remarquer que lorsque les utilisateurs touchaient la tablette avec le bas de la main, tout en utilisant les doigts pour déclencher le son associé à un pictogramme du haut de la planche, les interactions étaient peu fiables. On rencontrait deux situations : soit la tablette devient complètement muette, soit ce sont les pictogrammes du bas de l’écran qui s’activent.
Ces problèmes sont intrinsèques à la technologie utilisée par les tablettes pour détecter les multiples appuis, et sont difficilement solutionnables. J’ai tout de même ajouté un filtre qui ne considère pas les double taps de bas d’écran dans le cas où un doigt touche le haut de l’écran. Ce n’est pas parfait, mais c’est déjà mieux que rien.
Prise en charge d’une nouvelle tablette
Lors de discussions passées, nous avions discuté avec Jérémy de la difficulté d’ajouter de nouvelles tablettes à l’application et à la fabrique. Il fallait en effet modifier plusieurs fichiers, sans que cela ne soit très bien documenté. J’ai donc pris le temps de modifier l’application pour qu’elle puisse intégrer facilement de nouvelles configurations de tablettes, en utilisant le même fichier au format XML que celui utilisé par la fabrique.
Cela m’a permis de rapidement intégrer une nouvelle tablette, qui sera prochainement mise dans les mains d’une nouvelle utilisatrice. L’équipe qui l’accompagne ayant prévu d’utiliser une coque de protection, j’ai également ajouté la possibilité de fabriquer la boîte et les planches en tenant compte de cette coque.
J’ai également amélioré l’ergonomie de l’application pour qu’elle propose au premier démarrage un menu permettant de sélectionner la tablette utilisée, afin d’avoir directement les bons réglages.
interface de fabrication des planches qui intègre la possibilité de décrire une coque spécifique.
J’ai également pris le temps de rédiger une documentation pour faciliter l’installation et la configuration de l’application.
Conclusion
Avec les premiers utilisateurs extérieurs, je serai probablement amené à apporter des améliorations à l’application et aux outils de l’écosystème Pictoparle, afin d’en permettre l’adoption plus aisée. À suivre donc, car nous sommes à l’aube de la troisième saison de développement !
Je regardais depuis quelques temps avec grand intérêt le travail de Cécile Georges, une artiste qui travaille le son et l’image avec des procédés automatiques, explorant les défauts et les glitches des outils du numérique. En discutant avec elle, j’ai appris qu’il lui arrivait d’utiliser audacity pour charger une image au format bmp, afin d’appliquer dessus des algorithmes de traitement de son avant de sauver le fichier pour le visualiser. L’occasion de produire des distorsions, d’observer, d’expérimenter plein de choses. Son processus imposait des étapes de manipulation attentives, pour ne pas casser les entêtes du fichier image, cette partie qui permet de relire ensuite le fichier comme une image.
En discutant ensemble, on a convenu que ça pourrait être facilité, voire même que l’on pourrait proposer le chemin inverse : lire un fichier son depuis un logiciel de traitement d’images, lui appliquer là aussi des filtres et des effets, puis réécouter le fichier ensuite.
J’ai donc pris quelques jours, un week-end étendu, et j’ai écrit en python un logiciel, rawdodendron, qui permet de faire de la transformation automatique de fichiers audio vers image, et réciproquement. Le code source est bien sûr disponible en ligne sous licence libre, et j’ai produit une courte vidéo de démonstration, où l’on écoute un son modifié grâce à gimp.
démonstration du fonctionnement de rawdodendron
Dans l’autre sens, on peut bien sûr convertir un fichier image en son, puis le modifier avant de revenir dans le visible.
image originale, logo du logiciel
image obtenue par compression du son
image obtenue par réverbération
image obtenue avec un autre réglage de réverb
Quelques exemples d’images modifiées grâce à des algorithmes de traitement du son
Le logiciel est donc composé d’une interface où l’on peut glisser/déposer des fichiers, puis modifier les réglages de la conversion avant de générer les fichiers de l’autre modalité. L’interface est réglée pour automatiquement préparer la conversion inverse. Cela permet de faire de rapides allers/retours entre les deux modalités, pour expérimenter un maximum d’algorithmes différents.
interface de rawdodendron
D’un point de vue technique, l’outil manipule des images composées de pixels (png, jpg, etc), et des sons numériques (mp3, wav, flac, etc). J’en avais déjà parlé dans un article dédié à la synthèse de son additive, un son peut être modélisé par une série de pressions/décompressions, et la manière de le stocker numériquement est de le découper selon une fréquence très rapide (on parle par exemple de 44100 enregistrements par seconde pour le son d’un CD). On va alors stocker pour chacun de ces échantillons le degré de compression/décompression :
découpage en échantillons d’un son
Ce sont chacun de ces échantillons qui seront convertis en pixels avec rawdodendron. Car de la même manière que l’on code cette pression/décompression à l’aide d’un entier (compris entre ‑127 et 128 dans la version la plus simple), chaque pixel est codé par un entier entre 0 et 255 (dans sa version la plus standard). Rawdodendron va donc balayer l’image de gauche à droite puis de haut en bas, et traduire brutalement (d’où le raw de rawdodendron) les échantillons sonores en son, et réciproquement.
balayage de l’image, pixel par pixel, ligne par ligne.
Dans l’image ci-dessus, on voit bien que deux pixels qui sont adjacents peuvent se situer à de moments différents du son. La largeur de l’image (ici notée x) entraîne un genre de « repliement temporel », le pixel t étant adjacent au pixel t+x. On comprend donc que la largeur de l’image générée à partir d’un son soit un paramètre important, car souvent les filtres image modifient les pixels en fonction de leurs voisins, qu’ils soient sur la même ligne horizontale ou non.
Dans l’explication ci-dessus, je n’ai parlé ni du fait que les fichiers audio étaient souvent stéréo, et que les fichiers image n’étaient pas juste noir et blanc. Il y a donc 2 valeurs par échantillon de son, un pour l’oreille droite, l’autre pour l’oreille gauche. Sur les images, on a 3 valeurs (voire 4) pour chaque pixel, afin de composer le mélange rouge/vert/bleu (et parfois transparent). Le balayage va donc considérer chacune des valeurs de pixel avant de passer au pixel suivant, de même que considérer chaque canal audio de l’échantillon avant de passer au suivant. Cela peut entraîner des comportements peu intuitifs, et je conseille aux débutants avec ce logiciel de choisir des sons mono et des images en noir et blanc (et enregistrés en niveau de gris) pour réussir à comprendre un peu ce qui se passe.
Enfin, il est intéressant de noter que les formats mp3 et jpg, conçus chacun pour réduire la taille des fichiers en réduisant la qualité des données sans que cela ne soit trop perceptibles réduisent très perceptiblement les données dans l’autre modalité (le mp3 est particulièrement agressif à l’œil). Privilégiez donc les formats non destructifs comme la flac et ou le png.
Depuis quelques années maintenant, ma vie est en partie guidée par l’arrivée d’une maladie dans la vie de ma fille. Comme tout scientifique, j’ai pris du temps pour comprendre cette maladie, l’état des connaissances sur la question, puis j’ai œuvré à partager ces explorations avec un site consacré à la maladie de Batten, et avec une participation de plus en plus active à l’association Vaincre les Maladies Lysosomales. Cela a naturellement influencé mes activités de recherche, qui se structurent aujourd’hui autour de deux thématiques : la déficience visuelle avec Compas, et la prise en charge de la douleur avec esanté-mobilité.
Et bien sûr, cela a aussi influencé la manière dont on vit au quotidien avec ma fille. Après avoir initié un blog consacré aux adaptations du quotidien, j’avais besoin de partager mon expérience et mes réflexions sur cette place du proche aidant, et sur les conséquences d’une maladie génétique dégénérative.
Depuis bientôt deux ans maintenant, je réfléchis à la forme que ce témoignage pourrait prendre. Au tout début j’imaginais écrire un livre. Mais le temps passant, j’ai structuré tout ça sous forme d’un podcast. Entre l’envie initiale et l’objet fini, il a fallut du temps de maturation, de réflexion, d’essais et d’écoute de conseils. Et ça y est, les premiers épisodes sont prêts à être diffusés. Au moment où j’écris cet article, j’ai tourné 7 épisodes, et ils sont programmés à la diffusion, un par un, chaque mercredi à 12h. Bien sûr, j’ai encore plein d’idées pour de nouveaux épisodes, et j’espère pouvoir les tourner en continu, de sorte à maintenir ce rythme de publication pendant plusieurs mois.
Le podcast s’appelle donc « quand même pas, Papa ! », et on peut retrouver tous les épisodes sur le site du cri de la girafe. Voici d’ailleurs le premier épisode, en guise d’introduction à la série :
Cela fait plus de 10 ans que je suis enseignant-chercheur, avec comme statut celui de maître de conférences. J’ai été recruté au 1er septembre 2010 par ce qui était alors l’une des deux universités clermontoises, l’Université d’Auvergne. Au fil des années, les obligations nationales ont imposé une restructuration des universités à travers la France, entraînant à Clermont-Ferrand la fusion des deux universités, dont l’entité résultant est devenue l’Université Clermont Auvergne.
Les missions assurées par les enseignants-chercheurs
Quand on est maître de conférences, notre statut impose de devoir réaliser l’équivalent de 192 heures d’enseignement en travaux dirigés par an, ce qui correspond à environ la moitié du temps, si l’on considère que ces 192 heures face aux étudiants (voire plus si l’on donne des travaux pratiques) nécessitent beaucoup d’heures en plus, pour préparer les cours, préparer les examens, les surveiller, les corriger, accompagner les étudiants dans leur parcours universitaire, et participer à l’animation pédagogique de son département. De nombreux collègues prennent aussi des responsabilités pédagogiques, afin d’assurer le fonctionnement des départements, des formations, etc.
Ce statut implique également de passer l’autre moitié de ses 1607 heures par an à mener une activité de recherche, avec pour objectif principal retenu par l’employeur la publication d’articles scientifiques. Avec le temps, cette activité nécessite de passer de plus en plus de temps à construire des dossiers de candidature pour répondre à des appels à projets, afin de financer des postes de chercheurs temporaires (doctorants, post-doctorants), d’ingénieurs, mais aussi disposer des financements pour assurer l’équipement, les déplacements et les participations aux conférences nécessaire à cette activité de recherche.
Quand on obtient le financement de projets, il est ensuite nécessaire de passer du temps à recruter les candidats, à faire le suivi de leurs contrats, à les accompagner dans leurs activités de recherche, mais aussi à régulièrement rendre compte aux financeurs, parfois avec une fréquence très élevée. Il s’agit de tâches administratives qui peuvent être très consommatrices en temps.
Enfin, une mission de plus en plus souhaitée par nos financeurs et employeurs, mais rarement valorisée dans notre évaluation est la diffusion vers le grand public de ces activités de recherche, en d’autres termes de la vulgarisation.
L’une des conséquences de ces injonctions à assumer des missions aussi diverses est la pression sur les personnels, qui entraîne parfois un désengagement de certaines missions. Une mécanique classique, notamment dans les IUT, consiste à ne plus assurer sa mission de recherche pour pouvoir répondre aux besoins d’heures à assurer en enseignement, et de manière générale en accompagnement des étudiants. À titre personnel, je fais tout pour éviter cela, d’une part parce que je ne le souhaite pas, mais aussi parce que la mécanique financière associée à cela est une perte sèche pour l’université, qui paye alors au maître de conférence un salaire correspondant à un temps plein enseignement et recherche, salaire complété d’heures supplémentaires réalisées dans le temps normalement imparti à la recherche…
Des missions qui évoluent
Avec le désengagement régulier de l’état dans le financement des universités, les missions ont progressivement évolué. C’est quelque chose que j’ai pu régulièrement constater depuis 1999, date à laquelle j’ai commencé à fréquenter l’université comme étudiant. Je me souviens par exemple des discussions qui ont eu lieu au moment du passage de la loi LRU, qui a précipité les universités dans une concurrence fratricide pour l’accès aux financements, et plus récemment avec l’émergence des labels d’excellence (isite, idex, labex, …). Ces politiques ont poussé toutes les échelles de l’université dans un fonctionnement de mise en concurrence : concurrence de site, où chaque bassin tente de fédérer le maximum de structures supérieures pour pouvoir bénéficier des financements des ministères (les petites universités étant vouées à disparaître faute de moyens), concurrence entre laboratoires pour attirer les financements des collectivités locales, de l’état, de l’Europe, concurrence entre les formations, qui doivent toujours se battre pour exister, faute de financement suffisant assuré. Dans ce mécanisme, on ne donne qu’à ceux qui sont déjà. Difficile d’être un outsider. Pour maintenir un niveau d’activité, on doit constamment monter des dispositifs de plus en plus gros, sous peine de disparaître. On est bien loin de l’esprit du service public avec cette mise en concurrence globalisée, qui dissimule difficilement une réduction toujours plus importante des financements, malgré l’augmentation chaque année des fraîchement diplômés du baccalauréat. Et bien sûr, ce mécanisme maintient naturellement la ségrégation sociale, les publics défavorisés ne bénéficiant pas d’un accès aux universités réellement soutenues par l’état.
Difficile dans ce contexte de maintenir une activité dans l’esprit de service public et de missions de l’université, qui devrait être un lieu de partage des connaissances plutôt qu’une machine à produire des « ressources humaines ». En plus de cette concurrence constante, on constate en effet une injonction — notamment dans les petites universités — à dispenser un enseignement utilitariste pensé uniquement vers marché de l’emploi.
Mes activités d’enseignement
Au moment de la mise en place du Bachelor Universitaire de Technologie (BUT) en remplacement du DUT, il est temps pour moi de faire le point sur mes activités d’enseignement.
Comme je l’écrivais plus haut, j’ai été recruté comme maître de conférences en informatique dans un département de gestion des entreprises et administrations d’un Institut Universitaire de Technologie (IUT). Si lors de mon recrutement, je pensais y trouver l’espace pour exercer mon activité d’enseignement, j’ai très vite déchanté. J’ai bien sûr pu assumer l’enseignement orienté sur ma discipline, avec un module de bases de données, mais au delà de ça, on n’a pu me proposer que des modules de mathématiques et statistiques, que j’ai assumé au début, et les modules de bureautique pour lesquels je n’ai aucune compétence, car Microsoft Word n’est pas LaTeX, et Microsoft Excel n’est pas python. Comme je l’écrivais il y a peu sur twitter, ce n’est pas parce que ton métier est de concevoir des trottinettes électriques que tu seras légitime à enseigner la conduite automobile. Mes compétences se placent au niveau de la science informatique (section 27), et je ne me considère pas compétent ni légitime à enseigner l’usage d’outils tels que les Progiciels de Gestion Intégrés dont j’ignore totalement le fonctionnement et enjeux de gestion et d’administration.
Au fil des années, j’ai donc été sollicité dans différentes formations pour assumer des enseignements plus proches de mes sujets de compétence, et où il manquait des intervenants à l’université. J’ai ainsi pu assumer au fil du temps l’animation de modules d’algorithmique, de géométrie et de traitement d’images, de bases de données, ou encore de gestion de projets informatiques. Plus récemment, j’ai également complété ces interventions par l’animation d’un atelier du Service Université Culture sur l’audiodescription, une pratique peu répandue mais très recherchée. Je me sens aujourd’hui bien plus légitime à assurer ces enseignements dans des filières universitaires ou d’école d’ingénieur que d’assurer ceux en GEA.
Les évolutions des missions d’enseignement
Ces dernières années, plusieurs phénomènes annoncent des évolutions notables dans ces activités d’enseignement.
Tout d’abord, avec la réduction constante des moyens attribués à l’université pour qu’elle assure l’enseignement de chaque étudiant, et les décisions politiques qui entraînent une précarisation toujours plus importante des personnels enseignants, la tension est palpable dans les départements : manque d’heures de permanents pour assurer les enseignements, pression à assumer des heures supplémentaires en nombre déraisonnable, contrainte à assumer des missions administratives toujours plus importante, et sans compensation ou presque. Si l’on ajoute à cela la pression associée à une évaluation quadriennale, et une opinion publique qui n’apporte plus le même crédit à ces activités du supérieur, on peut comprendre que les collègues perdent progressivement toute motivation à un engagement fonctionnaire.
Ensuite, les réformes successives de l’enseignement secondaire, avec les nouvelles modalités d’évaluation par compétence, la mise en place du nouveau baccalauréat avec un choix précoce des disciplines principales, et le maquillage de cette précarité de moyens par une application Parcoursup au fonctionnement ubuesque annoncent un avenir très très incertain pour des filières comme le BUT GEA. En effet, contrairement aux autres départements de l’IUT plus orientés vers des compétences techniques bien ciblées, l’enseignement proposé en GEA est plutôt généraliste, préparant au monde de l’entreprise au sens large, sans que l’étudiant ne soit nécessairement intéressé et impliqué à l’apprentissage de savoir-faire spécifiques. Au fil des années et des échanges avec les étudiants, j’avais compris qu’une large majorité d’entre eux choisissaient ce département par défaut, parce qu’il était généraliste, et permettait de ne « perdre aucune matière » parmi celles enseignées au lycée. Exception faite de celles et ceux convaincus qu’ils sont intéressés par la paye, les ressources humaines ou la comptabilité, une écrasante majorité de ces jeunes choisissent GEA comme un moyen d’attendre d’être en âge de rentrer dans le milieu professionnel. Ils espèrent bien sûr trouver une voie qui les mènera à une situation financière confortable, mais n’ont pas spécialement de motivation à suivre les cours proposés (combien de fois ai-je entendu « mais monsieur, on n’a jamais vu ça avant », comme s’il ne s’agissait que de réchauffer encore et toujours les mêmes enseignements du secondaire).
Avec les changements notamment du nouveau bac, les choix de matières ayant déjà été faits au fil du lycée, la filière GEA perd son statut de continuité sans changement. Si l’on ajoute à ça les injonctions des rectorats à ce que les IUT intègrent de plus en plus de bacheliers des filières technologiques, aux capacités très réduites à s’intéresser aux notions théoriques, on annonce une filière GEA encore moins universitaire, toujours aussi peu technologique, et donc définitivement salle d’attente du monde du travail.
Mes activités de recherche
Après quelques années à tenter de trouver ma place dans un laboratoire de recherche en sciences informatiques pour la santé, j’ai rejoint en 2016 le LIMOS, laboratoire d’informatique du site clermontois.
Après quelques années à y chercher ma place, j’ai finalement développé ma propre activité de recherche sur les problématiques associées à l’espace urbain et à la déficience visuelle, en construisant l’écosystème Compas dont j’ai parlé dans une récente vidéo. En parallèle, j’ai développé avec plusieurs collègues un axe de recherche autour de la thématique de la santé connectée pour la sédentarité, l’occasion de tisser des liens avec plusieurs laboratoires et instituts locaux.
La page consacrée à aux collaborations sur mon site professionnel liste les différents projets dont j’ai obtenu le financement, soit en tant que porteur principal, soit en tant que représentant du LIMOS dans le projet. Difficile de percevoir pour qui n’est pas expert les défis que cela implique, avec des taux d’acceptation très faibles. À titre d’exemple, seuls 16% des projets présentés à l’appel à projet ANR blanc finissent par décrocher un financement.
Ces deux dernières années, les choses se passent plutôt bien pour moi, c’est ainsi plus d’un million d’euros que j’ai participé à ramener au LIMOS et à ses partenaires pour financer du matériel, du personnel, des déplacements, des publications, etc. Les choses se mettent doucement en place, les jeunes chercheurs rejoignent les deux projets compas et esanté-mobilité. Ces prochaines années seront l’occasion de nombreuses publications, et de communications de vulgarisation autour de ces projets. Quand les choses s’enchaînent ainsi, il est de plus en plus difficile de prendre du recul pour se rappeler que ce mode de fonctionnement de la recherche, avec mise en concurrence des chercheurs, n’est pas satisfaisante. On se prend au jeu des dossiers de candidature, en apprenant à présenter les choses « pour que ça passe », en racontant ce que les financeurs ont envie de lire, sans sacrifier dans ces propositions nos envies et sujets d’intérêts scientifiques.
Être enseignant-chercheur en temps de COVID
La pandémie et l’obligation de confinement qu’elle impose depuis plus d’un an a bien sûr changé les pratiques de ce métier. J’ai énormément enseigné à distance cette année, et j’ai essentiellement mené mes activités de recherche à distance. C’était déjà une pratique familière pour moi, car déjà avant le COVID j’aimais gagner du temps dans la journée en évitant des déplacements inutiles.
En recherche, nous avons collégialement pris cette habitude de communication à distance (visio, chats, etc), ce qui a contribué à souder des liens forts et quotidien au sein des équipes de recherche, qu’elles soient éloignées ou non. Ça a réellement été une très bonne année en recherche, car j’ai pu avancer sur plein de sujets, et j’ai pu prendre le temps d’échanger avec beaucoup de partenaires, tout en continuant de monter des projets pour obtenir de nouveaux financements.
En enseignement, j’ai ressenti de plus grandes frustrations des enseignants et des étudiants, certes à cause des conditions, mais aussi parce que le métier est complètement modifié par l’usage de ces techniques numériques, et que nous ne sommes pas tous à pied d’égalité face à ces pratiques. On espère bien sûr un prochain retour à la normale, mais je garderai tout de même en tête que l’enseignement à distance a permis des échanges parfois très riches avec certains étudiants, et qu’il pourra faire partie des outils à solliciter.
Depuis quelques années maintenant, je mets en place plusieurs projets de recherche, qui s’assemblent aujourd’hui de manière assez cohérente au sein de l’écosystème Compas.
À l’occasion d’une conférence organisée par Florence Faberon à l’Université de Guyane, j’ai réalisé une vidéo de 20 minutes qui présente ces différentes activités de recherche.
Dans un précédent article, je racontais une manière de s’adapter à l’enseignement à distance. Certains de mes collègues ont complété en commentaire de l’article, décrivant leurs pratiques, et je les en remercie.
J’utilise donc GNU/Linux, mais pour diverses raisons c’est le logiciel Teams de Microsoft qui est mon outil quotidien d’enseignement. Que ce soit cet outil ou un autre, il est souvent difficile de faire écouter aux personnes qui participent à la séance le son d’un autre logiciel. Dans ce nouvel article, je vous raconte comment faire cela, mais aussi comment envoyer les voix des personnes qui participent dans tout autre logiciel.
Exemple d’utilisation
Nous animons depuis trois ans avec ADVOX et pour le Service Université Culture de l’UCA un atelier d’audiodescription. Cette année, conditions sanitaires obligent, il se déroule à distance.
Dans cet atelier, on explore avec les personnes participantes tous les aspects de l’audiodescription, depuis l’analyse filmique jusqu’au montage et mastering, en passant par l’écriture et l’enregistrement.
Voici un court extrait d’une séance ou l’une des personnes qui participe à l’atelier dit depuis chez elle l’audiodescription. C’est mon ordinateur qui enregistre, puis je réalise le montage, guidé par les participantes et participants. Enfin, on écoute le résultat.
enregistrement d’une version de travail de l’audiodescription d’un court-métrage (5,80 mètres)
Le logiciel que j’utilise ici est Reaper. Tout comme Teams, ce n’est pas mon outil quotidien, mais nous avons fait ce choix pragmatique car c’est un logiciel gratuit (en version d’essai infinie) sur tous les systèmes d’exploitation, et il est massivement utilisé, notamment par les radios locales. Ce que je raconte par la suite fonctionne parfaitement avec n’importe quel logiciel de montage son, comme Ardour ou Audacity par exemple.
Pour cet usage, j’ai donc deux besoins distincts :
faire entendre et voir aux personnes présentes le logiciel de montage son
enregistrer dans ce logiciel ce que disent les personnes présentes.
Un autre exemple d’utilisation pourrait être l’enregistrement d’interviews à distance, pour lesquelles j’ai précédemment proposé un état des lieux des possibilités.
Dans la suite, je vous propose deux solutions, dans l’ordre où je les ai essayées. Ma préférence va à la seconde, mais vous pourriez avoir besoin d’utiliser la première. Bien sûr, tout cela marche sous GNU/Linux, et il faudrait trouver des équivalents sur les autres systèmes d’exploitation. Il me semble que la deuxième solution est possible.
Première solution avec Pulseaudio
Depuis quelques années maintenant, Pulseaudio est le serveur de son utilisé par les bureaux et distributions majeures sous Linux. Son rôle est de permettre à l’utilisateur de choisir pour chaque logiciel vers quel sortie son il va envoyer le son, à quelle intensité sonore, etc.
C’est le compagnon idéal du quotidien, qui me permet par exemple d’écouter une conférence dans le casque branché sur mon ordinateur pendant que ma fille écoute une histoire audio sur l’enceinte Bluetooth connectée au même ordinateur.
j’écoute radiocratie.com dans Firefox en utilisant une carte son AudioBox.
Il faut un peu jouer d’astuce pour réussir à diriger du son entre logiciels grâce à Pulseaudio. Le principe consiste à créer des cartes son virtuelles. Pour réussir ça, il faut lire la doc et utiliser quelques lignes de commande bien senties, ou utilise le petit script conçu par Arnaud Venturi, après l’avoir édité pour qu’il corresponde à nos besoins. Arnaud propose le schéma suivant pour raconter comment cela fonctionne :
un microphone, un mplayer et une vidéoconférence, le tout connecté grâce à deux cartes son virtuelles pour mélanger des sons en entrée et en sortie de la vidéoconférence.
Dans son utilisation, Arnaud utilise mplayer pour faire écouter un film à son auditoire en vidéoconférence. Le son de mplayer est déparé en deux grâce à une carte virtuelle, puis envoyé à la fois dans les enceintes et dans une seconde carte son. Cette seconde carte son intègre le son de mplayer celui du micrphone pour envoyer le tout dans la vidéoconférence.
Cette première approche permet de résoudre l’une de mes problématiques, mais il faudrait aller un peu plus loin pour récupérer aussi le son de la vidéoconférence à l’aide d’une autre carte son virtuelle pour l’envoyer dans un logiciel de montage son, si on voulait enregistrer la voix des personnes qui participent à la visio.
Deuxième solution avec le serveur jack
Le serveur jack est aussi un serveur de son dont l’objectif est de se rapprocher du temps réel. C’est LE serveur de son de celles et ceux qui font du montage son ou du son en temps réel sous GNU/Linux. Il est aussi disponible pour MacOS X et Windows, mais je ne je n’ai jamais essayé sur ces plateformes.
Pour lancer jack, j’utilise Cadence, une des applications proposées par KXStudio, qui propose notamment un pont direct avec Pulseaudio. On laisse donc toutes les applications courantes (navigateur, lecteur son, logiciel de visio) se connecter à Pulseaudio, et le pont (bridge en anglais) se charge de faire communiquer ces logiciels avec ceux qui vivent du côté de jack, en temps réel.
Le principe consiste ensuite à utiliser le logiciel de montage son en le connectant à jack (c’est comme ça qu’il marche le mieux), puis à utiliser les facilités de jack pour router le son entre ce logiciel et le pont pulseaudio. J’utilise pour ça le l’interface Catia, qui facilite grandement ces branchements. En quelques clics glissés, on connecte nos logiciels.
connexion dans Catia (jack) de Reaper aux ponts Pulseaudioroutage du son dans jack pour écouter et enregistrer en visio
Le dernier détail consiste à régler le logiciel de visio sur les entrées et sorties qui correspondent au pont vers jack depuis Pulseaudio :
sélection de jack sink comme haut-parleur, et jack source comme micro dans Teams
Cette solution est très flexible, on peut imaginer plein d’autres solutions de routage. Attention cependant, si votre logiciel de traitement de son est réglé en mode playback durant les enregistrements (c’est-à-dire qu’il rejoue le son qu’il enregistre), les personnes à distance entendront le son en double. Dans ce cas, au moment de l’enregistrement, il est important d’enlever temporairement le lien de son sortant de Reaper vers Pulseaudio.
Bien sûr, tout ce que j’ai écrit ici fonctionne parfaitement avec Ardour et jitsi par exemple, si l’on veut utiliser une solution 100% libre.
Voilà maintenant bientôt une année que l’on a pris l’habitude forcée de se rencontrer virtuellement. C’est toujours quelque chose d’un peu déroutant, voire pesant, quand il s’agit de moments que l’on aurait voulu vivre « en vrai ». Je me souviens de ce petits moments de gêne quand on se retrouvait en famille ou pour des échanges avec les copains et les copines, parce que tout le monde n’avait pas la même aisance avec l’outil.
Évidemment, quand on enseigne, c’est pareil. On n’a pas forcément la pleine maîtrise des outils que l’on doit solliciter pour animer un cours à distance, ni la maîtrise des conditions matérielles nécessaires. Les étudiants et étudiantes non plus n’ont pas forcément l’environnement propice, ni l’aisance technique pour trouver leur chemin dans cette nouvelle manière de partager.
En une petite année, j’ai adapté ma pratique, puisé dans différentes expériences passées, adapté, imaginé les choses. C’est venu assez vite finalement, et je pense avoir suffisamment réfléchi et expérimenté pour faire un premier retour d’expérience ici.
Ce qui alimente ma pratique
Depuis mon entrée à l’université, de nombreuses activités associatives, étudiantes et professionnelles m’ont amené à utiliser les outils du numérique et d’internet. Bien sûr en tant que participant actif, avec les listes de diffusion, les espaces de discussions textuelles en direct (IRC, chats, discord, etc.), avec les outils de rédaction collaborative (wikis, etherpads, documents partagés, etc) et les outils de dessin collaboratif, mais aussi avec des espaces de vulgarisation, comme ce blog par exemple. C’est aussi comme spectateur régulier de chaînes YouTube de vulgarisation (mais pas que), et plus récemment des pratiques de vidéo en direct, notamment sur la plateforme twitch que je me suis approprié des mécanismes d’animation de vidéo.
De ces expériences émergent naturellement des réflexes, une culture (celle de la netiquette par exemple), une facilité à penser un contenu multimédia.
Mais peut-être plus fondamentalement encore, plus de dix années de pratiques radiophoniques m’ont amené à progressivement penser mes enseignements comme des émissions de radio, en utilisant nombre de mécanismes d’animation, de structuration, de construction de séances.
Pendant Utopie Sonore. Photo : Clém Ence.
La bascule en enseignement à distance m’a amené à réunir et consolider toutes ces pratiques avec un seul objectif : rendre la modalité d’enseignement à distance la moins douloureuse pour mes étudiants et étudiantes, en leur proposant le format le plus adapté que je pouvais à la situation.
Dans la suite de ce texte, je vous propose quelques réflexions, développements et idées de pratiques issues de cette consolidation. C’est bien sûr intimement lié à ma pratique des outils numériques, et assurément il existe plein d’autre manières de faire.
La relation aux étudiants et étudiantes
À l’arrivée dans nos vies quotidiennes de la visio universelle, nombre étaient les personnes à souffrir de la dimension déshumanisante du dispositif. Il est certain que les pratiques de la vie réelle sont énormément imprégnées d’éléments de communication non verbales qui facilitent la compréhension, aident à construire des liens, à faciliter les échanges.
Avec les enseignements à distance, il est indispensable de trouver des mécanismes pour remplacer ces facilitateurs de transmission. L’un des enjeux de cette problématique consiste pour moi à créer les conditions pour que toutes les personnes qui participent à un échange par visio aient conscience qu’elles sont toutes des humaines et des humains qui s’approprient des outils et des mode de fonctionnement ensemble.
Les mécanismes de narration, d’usage de l’image, du son et des modalités participatives sont je crois des ingrédients importants de cette ré-humanisation, et je prendrai le temps de les développer plus bas.
Mais plus encore, je suis convaincu que la distance imposée par les écrans ne peut qu’amener à des mécanismes d’humilité, à l’opposé des pratiques que l’on rencontre parfois dans les amphis où un cours magistral est déroulé depuis une position de sachant absolu. Alors bien sûr, le sujet que l’on porte en cours est un sujet que nous maîtrisons, et il s’agit de transmettre aux étudiants et étudiantes notre expertise. Mais il ne faut pas cacher tout ces petits détails d’approximations liés aux outils (après tout, un enseignant grogne quand une craie se casse au tableau noir, l’analogie est de ne pas dissimuler un petit bug). Au delà de ça, il faut aussi accepter l’idée que les participants et participantes aient accès, en même temps que la séance se déroule, à des moteurs de recherche qui leur permettent d’explorer les connaissances humaines sur le sujet que l’on développe. Considérer cela me semble indispensable. L’intégrer dans sa pratique pédagogique est une piste intéressante, qui pousse naturellement à l’animation de séances avec modalités participatives (j’en reparlerai plus bas).
Finalement, on se retrouve dans la situation de celui ou celle qui apprend à apprendre. Plutôt que de déverser un savoir dans un flux unidirectionnel, nous sommes poussés à transmettre notre manière d’explorer un sujet nouveau. C’est alors l’occasion de partager une des expertises que nous avons en tant que chercheurs et chercheuses, celles d’être des experts de la construction de synthèses, de la vision d’ensemble de l’existant.
Voir et faire voir
La configuration de travail qui me semble indispensable à l’animation d’une séance réussie intègre (au moins) deux écrans.
Le premier sera l’écran partagé, celui que l’on montre aux personnes qui assistent à la séance. Il ne contient rien qui puisse déranger la vue, pas de barre de menu, pas d’icônes. C’est un tableau vierge, sur lequel on va venir présenter des documents.
Le second écran sera nos coulisses. Il contient à la fois le logiciel de visio et nos notes de cours personnelles. Il est indispensable d’avoir régulièrement son regard qui glisse vers la fenêtre du logiciel de visio, car les participantes et participants peuvent utiliser le chat pour intervenir à l’écrit, ou utiliser les mécanismes de main levée pour demander la parole s’ils n’osent pas le faire directement. Je décrirais plus tard les techniques que j’utilise pour solliciter ces retours, et ainsi avoir une séance vivante.
Les notes de cours ne sont pas obligatoires si on a bien en tête son déroulé, mais il m’arrive aussi d’animer des séances avec d’autres intervenants et intervenantes, et il est alors indispensable d’avoir un déroulé de séance rédigé pour réussir à garder une bonne synchronisation (cela nécessite plus d’attention que quand on est dans la même salle).
capture d’écran d’une séance de TP consacrée à la géométrie algorithmique. Écran du haut : l’interface de blender avec un script python en cours de rédaction. Écran du bas : la fenêtre de Teams, l’outil de visio que l’UCA nous demande d’utiliser.
Sur l’écran que je partage avec les participantes et participants, il y a toujours ou presque quelque chose d’affiché. Soit j’utilise un support de cours préparé à l’avance, soit j’utilise un logiciel de dessin (j’aime bien mypaint et son image virtuellement infinie), avec une tablette graphique pour noter les points principaux, exactement comme je le ferai au tableau dans une salle, soit j’utilise un éditeur de texte pour prendre des notes structurées. Je navigue d’ailleurs très souvent entre un support préparé à l’avance et un document que je construis devant leurs yeux, et que je leur enverrai à la fin de la séance.
exemple d’images dessinées pendant une séance de géométrie algorithmique
Bien sûr, je rappelle aux étudiants qu’ils se doivent de prendre des notes, car les documents écrits que je partage avec eux ne sont pas complet, on dit des choses qui ne sont pas écrites. Cependant, je n’ai pas envie qu’ils perdent de temps à faire des captures d’écran de ce que je projette, donc j’essaye de partager avec eux tout ce qui est passé par l’écran, ou j’utilise le copier/coller dans le chat de la visio, par exemple pour les liens des sites projetés.
J’utilise aussi facilement un moteur de recherche, wikipédia, etc. pour connecter ce dont je parle au reste des supports qu’ils pourront retrouver ensuite. Et j’utilise souvent des outils collaboratifs, j’en parlerai plus bas.
Se faire entendre
Que ce soit sur les chaînes Youtube, dans les émissions de radio, ou même dans une salle d’amphi, je trouve que l’élément fondamental pour suivre un exposé, c’est de bien entendre l’orateur. C’est sans doute une déformation liée à une pratique radiophonique régulière, mais je prends un grand soin à proposer une captation sonore la plus propre possible à mes étudiants et étudiantes. J’utilise donc un micro dynamique destiné à la voix, souvent utilisé sur scène (en l’occurrence un AKG D5, moins cher mais assez équivalent à l’incontournable Shure SM58), et une carte son externe pour régler au mieux la prise de son et le retour casque.
Car oui, pour éviter tout écho désagréable, il est indispensable de porter un casque quand on fait de la visio. Si on ne le fait pas, le logiciel de visio doit utiliser des algorithmes de filtrage pour que le son reste audible, et ça entraîne de grosses baisses de qualité…
un micro, une carte son
J’installe mon micro sur un pied, équipé d’une bonnette, et il pointe vers ma bouche sans être exactement dans l’alignement pour éviter tous les problèmes de saturation des plosives.
L’intérêt principal des petites cartes son comme celle que j’utilise, c’est qu’en plus d’entendre dans le casque les sons qui viennent de l’ordinateur, on peut doser la proportion de son en provenance directe du micro. Comme à la radio, je dose les retours afin de m’entendre à peu près au même niveau que quand les étudiants et étudiantes parlent. Ça me permet de placer ma voix, de m’apercevoir si je ne parle pas assez fort, ou encore de moduler conjointement la proximité du micro et l’intensité de ma voix pour changer d’intention. C’est aussi un moyen très pragmatique de réduire l’impression de parler dans le vide.
Passer régulièrement d’une voix posée et proche du micro à une voix plus puissante et éloignée du micro permet de casser la monotonie, d’associer une intention aux différents moments de la séance… Comme à la radio, les étudiants et étudiantes nous entendent souvent sans nous voir (s’ils regardent un document que l’on partage). Il est donc essentiel de marquer les intonations, de jouer son personnage, de placer un sourire dans sa voix, pour faciliter l’écoute.
Animer une séance
On retrouve dans les live Facebook, Youtube ou Twitch, dans l’animation d’une émission de radio et l’animation d’un cours des pratiques communes, notamment dans les interactions avec les participants et participantes, et dans les mécanismes de préservation de l’attention. Ce sont ces mécanismes, au service des étudiants et des étudiantes, qui me semblent aujourd’hui les plus intéressants à déployer pour leur permettre tout l’épanouissement possible dans cette situation confinée.
Tout d’abord, je fais mon possible pour démarrer la visio au moins 5 minutes avant le début du cours, tout comme j’ouvre ma salle un peu en avance, et laisse le temps aux jeunes de s’installer. Dans ces moments-là, je ne laisse pas le silence s’installer, je commence des discussions informelles avec les premiers et premières arrivées, en leur offrant la possibilité de discuter notamment de leurs conditions d’études, mais aussi en partageant les informations universitaires qui auraient pu leur échapper. Je laisse doucement tout le monde arriver, puis quand la majorité est là, je commence la séance, en rappelant le sujet du cours, les points abordés les séances passées, en replaçant la séance dans une continuité. Je prends le temps d’une présentation du déroulé de la séance, pourquoi pas d’un rappel des modalités d’évaluation et des séances importantes à venir. Je n’hésite pas à les interroger sur les conditions du déroulé du cours, pour ajuster éventuellement les choses.
Pendant la séance, de manière générale, j’essaye d’avoir au moins toutes les 2 à 5 minutes un retour des étudiants et étudiantes, en leur demandant de répondre à l’écrit ou à l’oral. Chaque groupe, chaque formation a son mode opératoire. Les plus à l’aise, souvent en petits groupes, vont allumer leur micro (parfois leur caméra, et c’est cool) pour poser une question ou répondre à une des miennes. Parfois, ils répondrons à l’écrit, voire avec un like sur la réponse d’un camarade.
Pour pousser à la participation, je dose entre questions ouvertes et questions fermées, suivant leur degré de réactivité. Si j’ai envie d’avoir des réponses plus collégiales, j’utilise les mécanismes de sondages instantanés que proposent les plateformes de visio.
Et puis je fais très attention à rebondir sur chacune de leurs interventions, par exemple en notant leurs idées sur le tableau virtuel que j’alimente, en mettant en évidence la diversité de leurs réponses, en précisant si nécessaire. Quand une réponse écrite me semble intéressante, je demande à l’auteur s’il est d’accord pour la développer pour ses camarades à l’oral.
Sauf exception, en aucun cas je ne pousse à la participation. Je propose des modes d’interaction, en essayant de ne pas présumer des possibilités techniques et matérielles des étudiants.
J’essaye aussi de changer régulièrement au fil de la séance la forme que prend l’intervention : discussion collective, discours plus professoral, construction d’un raisonnement par le dessin, exploration d’une problématique sur un moteur de recherche spécialisé, etc. Et quand je sens que c’est trop long, je propose une pause de quelques minutes. Je suis convaincu que ces mécanismes sont indispensables pour que l’expérience ne soit pas trop désagréable. Les silences que je laisse à l’antenne sont donc maîtrisés, annoncés. Le reste du temps, je fais attention à ce que l’espaces sonore soit bien alimenté, sans pour autant être un flux monotone et régulier. Il s’agit de penser au rythme, comme dans une émission.
Enfin, la toute fin de la séance est le moment d’une synthèse de ce qui a été exploré dans la séance, pour la replacer dans la continuité des séances du cours. Si l’organisation me le permet, j’essaye aussi de rester quelques minutes de plus après la fin du cours pour échanger de manière plus informelle avec les étudiants et étudiantes, afin de fluidifier ces échanges qui sinon pourraient être trop formels.
Travaux en groupe, outils collaboratifs
Quand la matière et la modalité d’enseignement le permettent, je propose régulièrement aux étudiants et étudiantes de travailler en groupe. Soit pendant toute la séance si c’est un TP, soit pendant de petites plages de 10 ou 15 minutes. Je commence quasiment toujours la séance par une visio collective, puis les participants et participantes sont répartis en groupe. Chaque groupe rejoint un canal de discussion séparé, et y lance une visio. Ils peuvent alors partager leur écran, discuter, travailler à un document commun. Quand ces activités en groupe sont lancées, je circule alors virtuellement de groupe en groupe pour aller échanger directement avec eux. Ce sont des moments très conviviaux, où ils se sentent plus libres de poser les questions, ou ils expérimentent, échangent…
Évidemment, dans ces moments-là les outils collaboratifs deviennent indispensables : framapad et son etherpad, hedgedoc, l’instance OnlyOffice de notre université pour rédiger, mais aussi excalidraw pour dessiner, ou plus spécifiquement slack, github, … Ce ne sont que quelques exemples mais qui me paraissent indispensables à un travail en groupe à distance, en plus de l’incontournable partage d’écran. Si je sens les participantes et participants peu agiles techniquement, je commence par une démonstration des outils en partageant mon écran, mais souvent ils sont autonomes.
Les retours en séance plénière permettent aux groupes de partager leurs explorations, de mettre en commun, etc.
Interagir hors des séances
Je trouve aussi intéressant de profiter des outils de messagerie, des ENT ou des courriels pour prolonger les échanges en envoyant après la séance des compléments d’information, des liens qui auraient pu manquer, et bien sûr en les invitant à me contacter pour toute demande, pour tout échange supplémentaire.
Cette continuité me semble indispensable, mais je veille à éviter de leur imposer un engagement, en proposant sans juger celles et ceux qui ne répondent pas, et en proposant un volume d’activités raisonnable.
Est-ce que ça marche ?
J’ai expérimenté ces différentes idées à plus ou moins grande échelle suivant les formations, l’âge des étudiants et étudiantes, le nombre de participants aux séances. J’ai ainsi expérimenté des groupes de 10 à 120 personnes, dans des formations variées, comme l’IUT, des masters, une école d’ingénieur, un atelier du SUC, … Parfois ça marche hyper bien, souvent j’ai l’impression que c’est correct. Parfois j’ai l’impression que c’est un peu raté, et je réfléchis à ajuster les choses pour les séances suivantes. C’est une expérimentation continuelle, mais finalement comme toujours en enseignement !
Être enseignant, c’est toujours s’adapter aux besoins des étudiants et étudiantes, s’adapter et aux circonstances, aux nouveautés, à la société qui évolue, à l’évolution de notre propre regard sur notre discipline… Enseigner avec les outils numériques, c’est pour moi une continuité dans cette adaptation, un défi qui nous est lancé, et que je trouve riche d’apprentissages.
Je suis convaincu que cet environnement est en train de changer ma manière d’enseigner, dans un sens qui me plaît, en plaçant encore plus l’étudiant et l’étudiante au centre de la démarche. Le jour où l’on reprendra durablement le chemin de l’université, je suis convaincu que j’aurai du mal à me passer des mécanismes et techniques que j’aurai exploré.
Peertube et seipa search, l'alternative réaliste à Youtube
Hier avec les copains et copines du cri de la girafe, on travaillait sur notre prochaine émission. Au fil des discussions, on a beaucoup parlé de la place que prennent les technologies dans nos quotidien. S’opposaient alors deux points de vue : d’un côté on entendait que ces techniques sont l’outil de contrôle des puissants et il faut s’en débarrasser, et de l’autre il se disait qu’il est possible de se réapproprier collectivement la technique pour choisir comment on l’utilise.
Évidemment, vous l’aurez compris, je suis partisan de la deuxième équipe, celle qui croit que la meilleure manière de lutter contre l’emprise des GAFAM (les géants du Web : Google, Apple, Facebook, Amazon et Microsoft) passe par une mise en commun des savoirs, et par une réappropriation collective de ces techniques. Évidemment, c’est une question complexe. Mais le mouvement du logiciel libre, de l’éducation populaire, ou encore des réseaux d’AMAP permet ça : se structurer pour que celles et ceux qui explorent un sujet puissent en faire profiter les autres, en toute transparence, en donnant les moyens aux autres de s’approprier ces outils et techniques s’ils le souhaitent.
S’affranchir des GAFAM
Alors bien sûr, on peut faire tout ça sans utiliser ni ordinateur ni internet, en utilisant des fanzines, en s’échangeant localement les savoir-faire, en ayant des colporteurs de connaissances qui traversent le pays. Mais l’outil internet existe. Et mieux, il a été conçu dès ses débuts pour être un espace d’échange sans contrôle central. Alors bien sûr, les GAFAM mettent aujourd’hui bien à mal ce mécanisme. Heureusement, régulièrement des initiatives naissent pour redonner à l’internaute l’indépendance, et redonner le contrôle au collectif.
En France, on peut saluer le travail de la quadrature du net, qui agit politiquement et légalement au quotidien pour protéger les libertés individuelles, et par là même l’idée originale de ce réseau d’échanges de connaissance. Et puis bien sûr, il est impossible de ne pas s’arrêter sur l’énorme travail de Framasoft, qui agit de manière concrète pour proposer des outils de dégooglisation d’internet, ou plus généralement d’indépendance aux GAFAM, et à leur internet décérébrant.
Quels outils numériques pour la diffusion de connaissance
Parmi les outils usuels que l’on utilise pour se partager de la connaissance sur internet, il y a pendant longtemps eu IRC, dont les usages ressemblent à la manière dont on utilise aujourd’hui discord ou twitch, les forums, remplacés progressivement dans les usages par les groupes facebook.
Mais une très grande partie de l’apprentissage autonome passe par l’usage des vidéos. Youtube est évidemment aujourd’hui LA plateforme incontournable pour ces partages de connaissance, ce qui n’est pas satisfaisant pour plein de raisons, notamment parce qu’elle nous rend dépendant à l’infrastructure et aux serveurs de Google, mais aussi parce qu’elle alimente en revenus cette entreprise, notamment grâce à la publicité, en s’appuyant sur le suivi de nos activités individuelles sur la plateforme. Il s’agit donc de trouver d’autres alternatives.
Peertube et ses fédérations
Depuis 2018, Framasoft a soutenu puis aidé au développement puis déploiement de PeerTube, un logiciel libre de partage de vidéos. Ce développement a notamment été possible grâce au financement participatif, une manière concrète de se fédérer collectivement pour construire nos propres outils.
PeerTube est donc un logiciel qui permet de déployer rapidement sur son site internet un équivalent à YouTube. L’outil offre la possibilité de mettre en ligne des vidéos, de proposer aux internautes d’interagir sous forme de commentaires, de s’abonner, etc.
Dans cette première version, on a donc un outil local, sur son serveur, mais qui ne permet pas d’avoir une gigantesque base de données unique où aller chercher et diffuser de l’info. On appelle chacun de ces serveurs des instances.
La première proposition technique pour désenclaver les instances PeerTube s’appelle les fédérations. Chaque instance peut en effet choisir les autres instances qu’elle suit. Les vidéos des instances qu’elles suit seront alors visibles de manière transparente depuis la première instance, de même que toutes les interactions (commentaires, abonnements, j’aime, etc.).
Les instances et fédérations peuvent aussi se référencer sur le site principal de PeerTube. Cela permet aux internautes de chercher suivant des thématiquesles instances qui se sont référencées, pour ensuite pourquoi pas s’y inscrire, et en suivre les diffusions à la manière de ce qu’on ferait sur YouTube.
Sepia search
Mais comment découvrir de nouvelles instances qui regroupent du contenu qui nous intéresse, à part la recherche citée plus haut ?
En septembre 2020, Framasoft a officialisé la mise en ligne de sepia search, un outil qui permet de rechercher parmi toutes les vidéos contenues dans les instances indexées. Et là, ça ouvre la porte à beaucoup plus de possibilités.
Admettons que je m’intéresse au pain au levain. Je peux donc chercher avec le mot clé levain sur sepia search. Au moment où j’écris cet article, on trouve 19 résultats sur les 591 sites web PeerTube indexés.
Capture d’écran des résultats à la recherche « levain » sur Sepia Search
Un outil à faire grandir
Évidemment, face à la masse de contenus disponibles sur YouTube, on est encore très loin du compte. Il y a trois ans, quand PeerTube est apparu, on n’imaginait cependant pas la vitesse à laquelle il allait se déployer, devenant aujourd’hui un outil certes naissant, mais aux fonctionnalités et aux possibilités crédibles.
En sensibilisant les groupes militants, les gens qui s’intéressent au partage de connaissance, les acteurs de l’éducation populaire à utiliser cet outil — qui correspond d’ailleurs exactement à leurs valeurs — je suis convaincu que l’on peut faire de cet outil un espace d’émancipation et de partage de connaissances à la hauteur du défi auquel on doit faire face.
Et un jour peut-être pour le son ?
En tant que producteur et écouteur de contenu audio, je rêve que l’outil s’émancipe progressivement des fonctionnalités de YouTube, pour héberger un jour du contenu 100% audio !
Un moyen là aussi de proposer une solution indépendante, artisanale et décentralisée aux plateformes de podcast existantes.
Dans un article récent, je présentais quelques outils pour travailler avec le son avec les outils les plus simples que vous puissiez avoir : un smartphone, un ordinateur.
Tout ça c’est mignon, mais si on est confinés chez soi, on ne peut pas rejoindre physiquement ses interlocuteur·ices pour un entretien à plusieurs. Quels outils a‑t-on à notre disposition pour enregistrer une interview à distance ? Dans cet article, je vous propose quelques solutions, qui nécessitent plus ou moins de maîtrise technique, et qui s’appuient sur différents outils de communication.
Bien sûr, la qualité du son de ces enregistrements dépendra de votre micro, et de la manière dont vous vous installerez pour enregistrer. Je vous invite donc à lire l’article sur le son nomade pour trouver vos bonnes pratiques.
Enregistrer un appel téléphonique
Sur les téléphones intelligents, il existe des applications qui permettent d’enregistrer les conversations téléphoniques, telle Call Recorder. Cependant, cette solution n’est souvent pas retenue, pour différentes raisons.
Tout d’abord, le son des communications téléphoniques est d’une qualité bien moindre que celle des autres solutions présentées en dessous. Il s’agit de l’héritage d’un temps où les communications étaient moins bonnes, et où on choisissait de filtrer la voix en ne gardant que les fréquences medium pour économiser de la bande passante. D’autre part, de plus en plus de restrictions sont imposées par les fabricants des appareils, qui brident la version d’Android, afin que les applications ne puissent plus enregistrer ces communications. À vous donc d’essayer sur votre téléphone, vous découvrirez peut-être que tout marche encore pour vous. Ou pas.
Une solution alternative consiste à mettre le téléphone en haut parleur pendant la conversation, et à enregistrer le son avec un autre appareil, par exemple un second téléphone en mode dictaphone. Mais la qualité sonore des deux interlocuteurs sera très différente.
Utiliser une application dictaphone sur chacun des téléphones
Pour peu que les deux interlocuteurs soient un peu agiles avec leur téléphone, une solution simple à mettre en place consiste à s’appeler avec des smartphones, tout en utilisant sur chaque appareil une application dictaphone, comme celles citées dans l’article dédié à l’enregistrement nomade. Il ne reste plus alors qu’à assembler les fichiers son.
Utiliser le mode enregistrement d’une visio
Certaines plateformes de communication visio ou audio proposent l’enregistrement intégré. La qualité du son sur ces plateformes est souvent bien meilleure que celle des appels téléphoniques. Cependant, on peut noter que ces plateformes réalisent tout de même souvent un traitement sur le son : détection des silences, filtres anti-bruit, ou encore compression ou filtrages de fréquences. Il s’agit donc de choisir la plateforme dont la qualité de son et dont les capacités d’enregistrement correspondent à vos besoins et usages.
L’outil qui semble le plus robuste pour cela est skype, qui documente précisément comment enregistrer une conversation sur son site internet. C’est une des solutions couramment utilisées par les radios associatives pour mener leurs interviews à distance. Les expériences que j’ai pu réaliser montrent que le son est particulièrement compressé1Lise dirait que c’est un son à la NRJ.. L’enregistrement est disponible pendant 30 jours en téléchargement, au format mp3.
Prenez donc le temps de lire la documentation de vos outils de visio habituels, et d’essayer leurs possibilités. Cela pourrait convenir à vos besoins.
Utiliser les deux entrées d’un enregistreur
Si ces solutions ne vous conviennent pas, mais que vous avez à votre disposition un enregistreur muni de deux entrées, comme un Zoom H4n ou un Tascam DR-40, et que vous avez quelques câbles et un micro, vous pouvez connecter la sortie casque d’un ordinateur sur l’une des entrées de votre enregistreur, et utiliser un micro pour enregistrer votre voix. En réglant correctement votre enregistreur, et en utilisant un outil de visio de votre choix, vous obtiendrez ainsi un enregistrement comportant dans l’un des canal votre voix, et dans l’autre canal toutes les autres voix de vos correspondants. Et pour écouter la conversation en direct, branchez un casque sur l’enregistreur !
Utiliser une solution dédiée
Il existe des plateformes dédiées à l’enregistrement d’interviews à distance. Je pense en particulier à zencastr, qui propose en cette période de confinement un accès gratuit à sa plateforme pour les amateur·ices.
Une fois créé un compte, on peut créer des épisodes, et y inviter des participant·e·s. Lorsque qu’on lance la session d’enregistrement, l’outil enregistre séparément chaque participant·e, et à la fin de la session, autant de fichiers mp3 sont disponibles au téléchargement.
L’application zencastr avec un seul participant.
La qualité du son est ici différente de celle de Skype, avec moins de compression, mais avec un gate (détecteur de silence) qui est réglé un peu trop brutalement, et qui peut rendre difficile l’exploitation de l’enregistrement, suivant les usages.
Si cet outil ne vous convient pas exactement, il existe d’autres outils assez similaires comme Cleanfeed par exemple. Le compte gratuit de cette plateforme permet notamment d’enregistrer au format wave, mais sans avoir une piste par intervenant.
Choisir une solution générique
Si on maîtrise complètement le routage des sons entre logiciels dans son système d’exploitation, par exemple en utilisant pulseaudio sous GNU/Linux, on peut utiliser n’importe quel outil de communication audio (skype, meet, jitsi, etc.), et le combiner à un logiciel d’enregistrement (audacity, ardour, reaper, …) . Les vidéos ci-dessous raconte comment faire ça sous GNU/Linux et Windows 10 (je n’ai pas pu tester cette solution) :
Enregistrer n’importe quelle discussion audio sous GNU/Linux
Enregistrer n’importe quelle discussion audio sous Windows 10
On trouve aussi des outils clé en main pour faire cet enregistrement, mais ils sont majoritairement dédiés à l’enregistrement audio ET vidéo, comme par exemple OBS. Il faudra alors extraire l’audio de l’enregistrement vidéo, et on aura peu de maîtrise sur la qualité de l’audio enregistré.
Utiliser un plugin pour DAW
Les stations audionumériques (ou DAW en anglais) telles que Reaper, Ardour, Pro Tools ou encore Audacity peuvent souvent être équipées de plugins (ou VST) permettant une diffusion du son entre plusieurs ordinateurs. Il faut pour cela que les participant·e·s disposent de ce type de logiciel, et d’un moyen d’enregistrement.
Un peu plus technique, mais bien plus configurable, on peut aussi choisir d’installer puis de régler son propre serveur de conférences. TeamTalk est un de ces outils, assez simple à déployer, que l’on peut ensuite utiliser très simplement. On peut aussi citer des outils plus complexes mais extrêmement flexibles comme Asterisk ou darkice, qui sont souvent une des briques élémentaires des autres outils cités ici.
Se débrouiller autrement
Quand on n’a pas trouvé une solution satisfaisante avec les propositions listées ci-dessus, une solution bricolée est tout de même possible. Il s’agit d’utiliser sur un ordinateur supplémentaire un logiciel du type Audacity pour enregistrer la conversation.
En effet, on peut facilement réussir à enregistrer le son qui sort d’un logiciel de cette manière. Le défaut principal est que cette solution ne permet souvent pas d’enregistrer la voix de l’utilisateur·ice de l’ordinateur d’enregistrement. On utilise donc cette machine supplémentaire comme un enregistreur de la conversation, et on s’y connecte chacun·e avec son propre ordinateur ou téléphone. Pour 5 participant·e·s, on aura donc 6 connexions à la conversation… Mais ça marche !
J’ai beaucoup parlé sur ce blog des techniques d’enregistrement et des outils pour le montage et mixage du son. Cependant, on n’a pas toujours accès à du matériel dédié, ni la possibilité d’installer des logiciels sur une station de travail.
Dans cet article, je vous propose d’évoquer quelques outils faciles à utiliser pour faire les choses avec les moyens du bord.
Enregistrer sans matériel dédié
Quand on n’a pas d’enregistreur, de carte son externe ou de micro spécifique, on se croit parfois démuni. Or, vous avez fort probablement à votre disposition un ou deux appareils munis d’un micro (notamment en ces temps de visio) : un téléphone intelligent, un ordinateur.
Sur un smartphone, il suffit d’utiliser une application de type dictaphone, ou enregistreur audio (audio recorder). Il en existe de nombreuses libres et gratuites, chacune avec ses avantages et inconvénients. N’oubliez pas de bien repérer la position du micro, pour avoir une prise la plus propre possible. On trouve même des applications pour modifier sa voix.
Enregistrer sa voix avec un smartphone
Sur un ordinateur portable, le micro intégré est aussi un outil fonctionnel, même si en général, le micro est moins bon que celui d’un téléphone intelligent. À noter que la directivité des micros peut beaucoup varier d’un modèle à l’autre. Il semble que les micros des Macs soient très directifs : si vous n’êtes pas tout à fait en face, on vous entend à peine. À l’inverse, beaucoup de modèles de PC seraient plus omnidirectionnels. À confirmer.
Sur un ordinateur, on peut installer un logiciel dédié à l’enregistrement, comme par exemple Audacity, un logiciel assez simple, mais efficace. Mais en mode nomade, on peut être encore plus économe en préparation : le site internet Online Voice Recorder propose un outil d’enregistrement basique mais efficace, pour enregistrer un son :
Enregistrement avec Online Voice RecorderÉcoute et ajustements d’un son enregistré via Online Voice Recorder
Une fois l’enregistrement terminé, on peut écouter la prise, ajuster le début et la fin du son, puis le sauver sur son ordinateur.
Les conditions de la prise de son
Quel que soit l’outil que vous utilisez pour enregistrer, il faut bien sûr prêter une grande attention à l’espace dans lequel on est. Par exemple, l’environnement doit être calme si on veut enregistrer une voix seule. Suivant l’effet choisi, on fera aussi attention à l’acoustique de la pièce. Le son peut y être brillant ou mat, on peut entendre un certain écho, ou au contraire entendre un son feutré. L’équilibre entre ces deux premiers extrêmes doit être trouvé suivant ce que l’on souhaite.
Au fil du temps, j’ai par exemple utilisé un dressing ou un placard ouvert rempli de vêtements pour étouffer le maximum de réverbérations possibles, et avoir un son de voix la plus « neutre » possible (une voix off par exemple), un salon pour que l’auditeur entende que je suis dans un espace convivial, le son semblant plus naturel, une salle de bain ou un couloir aux murs carrelés et assez nus, pour un effet de réverbération, un jardin public pour entendre un petit bruit de fond, …
Poser sa voix est aussi important, trouver une ambiance, … Si cette question vous intéresse, vous trouverez certainement dans l’article réaliser de la fiction audio quelques idées pour alimenter vos réflexions.
Un autre aspect important est la distance et la position par rapport au micro. Évidemment, les micros embarqués dans les téléphones et les ordinateurs ne sont pas prévus pour un enregistrement soigneux, même s’ils permettent déjà de faire pas mal de choses. Il arrive aussi qu’un traitement soit réalisé sur votre enregistrment sans que vous ne puissiez le contrôler (suppression de certains sons, filtrage, etc.). La meilleure solution est donc de faire des tests, en faisant attention aux bruits de touché de l’appareil, aux plosives (que l’on n’a pas envie de traiter a posteriori), à la distance et à l’orientation du micro par rapport à notre bouche…
Faire du montage depuis n’importe où
Une fois que les enregistrements sont faits, on récupère des fichiers son, au format wav ou mp3. Sur la qualité des enregistrements, on peut lire l’introduction de cet article sur le bon usage d’un enregistreur, tout en gardant à l’esprit que la solution que vous aurez choisie (application, logiciel) ne vous permettra peut-être pas une telle finesse de réglages.
Pour assembler ces fichiers en un son finalisé, on utilise généralement un logiciel de montage, de mixage, et de mastering. On peut bien sûr choisir d’installer des logiciels complexes et dédiés, comme ceux évoqués dans cet article sur le montage son. Audacity, cité précédemment, est une solution très simple pour commencer, même si elle ne permet pas toute la palette des traitements existants.
Mais si on ne veut ou ne peut pas installer de logiciel, il existe tout de même des solutions. Sur ordinateur, je vous conseillerai l’utilisation d’AudioMass, une application en ligne utilisable directement et sans création de compte.
interface d’Audiomass, un logiciel en ligne de montage son
Depuis quelques mois je fais mon pain. J’avais raconté dans un précédent billet ce que j’avais compris du processus, et comment je faisais mon pain. Depuis, les choses ont un peu changé.
Mais surtout, j’ai repris le chemin de l’université, après plus de 6 mois en télétravail. Dans mon métier, on travaille de 8 à 14 heures par jour suivant les périodes.1Que fait un enseignant-chercheur : préparation des cours, cours, préparation des examens, correction de copies, tâches administratives d’enseignement, montage de dossiers pour obtenir des financements, gestion des projets financés, recrutement, accueil et réunion avec les collègues chercheurs recrutés, développement d’outils pour la recherche, explorations et expérimentations scientifiques, recherche proprement dite, rédaction d’articles, diffusion des activités de recherche auprès du grand public, animation de groupes de recherche, relecture d’articles, organisation d’événements, etc. Quand on travaille de chez soi, il est souvent possible de faire une pause pour pétrir son pain. Mais quand on est loin de chez soi de 7h30 à 20h30, comment fait-on pour continuer à faire son pain tout en gardant une hygiène de sommeil satisfaisante ?
J’ai trouvé une organisation qui marche très bien, et qui m’a même permis d’améliorer ma pratique. Cela nécessite d’avoir deux soirs à suivre où l’on peut passer un peu de temps chez soi, au lieu de rentrer pour juste dormir.
Faire son pain en deux soirs
Le premier soir, je sors mon levain du frigo, je lui donne un peu de farine, puis je le laisse une heure se réchauffer. Quand il est prêt, je prépare mon pâton, et je le pétris. Je le laisse monter toute la nuit dans un saladier recouvert d’un torchon humidifié. Cette première levée dure quelque chose comme 7 ou 8 heures.
Quand je me lève le matin, je mets le saladier au frigo, et je pars pour ma journée.
Le deuxième soir, je sors mon pâton du frigo, et je le laisse revenir à chaleur ambiante pendant une heure environ. Là je façonne, puis je cuis.
Dans mes derniers essais, je suis revenu à une température de 260 degrés, car je trouvais qu’à 270° le cœur du pain n’était pas toujours bien cuit. Je cuis donc un peu plus longtemps, quelque chose comme 30 minutes pour un pain de 400 grammes (quantité à la louche, car je ne pèse rien).
La pousse longue durée comme je pratique ici (soit quasiment 24 heures en tout) amène le pâton à former de grandes alvéoles, qui quand le pain cuit produisent un réseau assez irrégulier, mais une mie très très souple. Je peux sans difficulté garder mon pain 5 à 6 jours, ce qui m’amène à faire un peu plus d’une fournée par semaine, un rythme qui me convient bien, d’autant que les opérations à mener les deux soirs sont très simples, et demandent peu de temps.
Cet été, j’ai fait une pause dans le développement de Pictoparle, l’outil de communication alternative et augmentée que je développe depuis le début de l’année 2020. Le site internet présente son fonctionnement actuel, et l’avancée de son développement.
Pendant l’été, j’ai identifié des limitations dans cette première version, et la semaine qui vient de s’écouler a été l’occasion de commencer à fabriquer un deuxième exemplaire de Pictoparle, car le premier est maintenant dans les mains d’une utilisatrice et de ses accompagnant·e·s. J’ai aussi pu échanger avec de nombreuses personnes, afin de faire une synthèse des besoins. Je suis maintenant prêt à reprendre le développement de Pictoparle. Peut-être pas à la même fréquence que pendant la première partie de l’année, mais régulièrement, j’apporterai des améliorations. Pictoparle deviendra de plus en plus adapté aux besoins.
Dans la suite de ce billet, je fais l’état des lieux des besoins d’amélioration identifiés.
Améliorations des interactions
Pendant l’été, nous avons utilisé Pictoparle dans plein de situations différentes. Nous avons repéré quelques difficultés d’usage. Pictoparle doit donc être modifié, ce qui a déjà en partie été initié :
il arrive que la paume de la main déclenche involontairement le son associé à un pictogramme de bas de tablette quand la main explore le haut. Le double tap devra être amélioré pour éviter ces désagréments.
il arrive que le double tap marche mal. Il faudra régler le délai entre deux taps. Il s’agit plus d’ajustements qu’autre chose.
quand il y a beaucoup de lumière alentours, la détection du QRcode se passe mal, et parfois même Pictoparle ne détecte pas le fait que la planche ait été posée. J’ai identifié quelques raisons de ce dysfonctionnement, et commencé à modifier en conséquence la forme des planches. Les prochaines semaines seront l’occasion de vérifier que cette correction suffit.
La nouvelle forme des planches qui permet un cadre blanc autour du QRcode.
Améliorations de la présentation des planches
En discutant avec des accompagnant·e·s qui découvraient le prototype, nous avons fait le constat qu’il pouvait manquer sur la planche des informations permettant de s’approprier facilement le dispositif. En particulier, j’ajouterai prochainement :
Pour chaque pictogramme, un sous-titre écrit sur la planche qui indique ce que décrit le pictogramme, à destination des accompagnant·e·s. On pourra par exemple l’imprimer dans une couleur pâle pour qu’elle ne soit pas thermogonflée.
Pour chaque planche, une inscription qui nomme la planche, pour les accompagnant·e·s.
On pourra aussi imaginer une version en relief de cette identification de planche.
Création de nouvelles planches
Après les trois premières planches qui sont maintenant utilisées (repas, activités de loisir et fun), nous sommes en train de concevoir avec une ergothérapeute et une éducatrice spécialisée deux nouvelles planches, l’une destinée aux jeux de société, et l’autre destinée à l’activité de cuisine.
De nouveaux pictogrammes sont dessinés, et ces deux planches viendront prochainement rejoindre les trois premières.
Amélioration des plans de fabrication de la boîte
J’ai profité de la réouverture du Débrouillo’Lab, le fablab des Petits Débrouillards installé récemment à la Goguette pour aller découper une nouvelle boîte, et ainsi fabriquer un deuxième prototype.
La découpeuse laser du Débrouillo’Lab
Pendant la fabrication, et en échangeant avec Jennifer et Samuel, j’ai identifié de nombreuses améliorations possibles :
Il faut mesurer avec une grande précision les planches, sinon l’assemblage se passe difficilement. Par exemple, j’avais trouvé des planches medium A4 à un peu plus d’un euro la planche, avec une épaisseur annoncée de 2 millimètres. Dans les faits, elle mesurent 2,3 millimètres, et j’aurais dû ajuster cette épaisseur dans la fabrique de Pictoparle.
Il faut bien choisir le kerf. Dans la construction que nous avons faite, nous avions réglé un kerf de 3/10 de millimètres, mais c’était trop large. On pourrait indiquer sur la page qu’un kerf trop fin est préférable à un kerf trop large, puisqu’après l’assemblage, on colle.
L’assemblage n’est pas facile car il manque des inscriptions. Une idée consisterait à graver sur les pièces une numérotation des pièces et de leur lieu de fixation.
On pourrait placer les pièces dans l’ordre d’assemblage sur la planche.
Certains crénelages sont peut-être orientés dans le mauvais sens, et leur assemblage est complexe.
Il pourrait être pertinent d’arrondir les coins des crénelages, pour que l’assemblage se fasse plus facilement.
On pourrait imaginer déplacer les crénelages d’assemblage pour en faire aussi des détrompeurs d’orientation des pièces.
On pourrait aussi ajouter une gravure pour localiser l’endroit où coller le QRcode et le papier thermogonflé, pour en faciliter l’assemblage.
De manière générale, il faudra aussi revoir le contenu des pdf qui permettent d’imprimer QRcode et feuille thermogonflée, pour que le numéro de la planche reste écrit à côté du QRcode, et que le pdf contienne les paramètres (nom de la planche, type de tablette, mise à l’échelle, etc.). Cela permettra de vérifier que les documents sont les bons avant l’impression.
Correction de bugs dans la fabrique
À l’occasion de la découpe pour le nouveau prototype, conçu autour d’une tablette de modèle différent, nous avons constaté quelques bugs dans la fabrique :
La génération de certains crénelages rate complètement quand la planche devient très fine. Les deux parties ne s’assemblent plus.
Quand on a voulu fabriquer la planche, le choix du modèle de tablette n’a pas été pris en compte, et on a découpé deux fois une planche pour le mauvais modèle de tablette. Les fichiers générés pourrait porter le nom du modèle de tablette, en plus du nom de la planche.
Faciliter la contribution
En discutant avec Jérémy, une personne intéressée à la partie logicielle du projet, j’ai remarqué que la manière d’ajouter un nouveau modèle de tablette à l’application n’était pas facile. Je prévois donc dans les temps prochains :
D’utiliser les mêmes fichiers xml côté fabrique et côté application Android, et de réduire au maximum les endroits où il faut ajouter des informations.
De rédiger un document qui explique comment mesurer une tablette existante pour pouvoir l’ajouter facilement à celles proposées par la fabrique de Pictoparle.
Le fichier zip généré par la fabrique devrait aussi contenir les informations de fabrication, et notamment le type de tablette. Cela permettrait de régler automatiquement les résolutions dans l’application sans devoir passer par le menu de configuration. Cela permettrait aussi de sauver l’édition d’une planche pour la reprendre plus tard, en gardant aussi les réglages de fabrication.
Ajout d’un lecteur multimédia
La première utilisatrice de Pictoparle est une très grande consommatrice d’histoires audio. Les différents endroits où elle est accueillie lui proposent des activités, mais il serait intéressant que Pictoparle permette aussi d’écouter des histoires.
L’idée serait cette année d’étendre Pictoparle pour qu’en plus des planches de communication, il y ait des planches d’activité. On pourrait par exemple avoir une planche contenant quelques pictogrammes : petite histoire, moyenne histoire, longue histoire pour lancer une histoire, puis un pictogramme pause. Le déclenchement d’un pictogramme histoire lancerait une nouvelle histoire, après avoir dit son nom et sa durée grâce à la synthèse vocale, en choisissant la prochaine dans la liste correspondante. Le pictogramme pause permettrait d’arrêter la lecture, ou de la reprendre (en indiquant le nom de l’histoire, et la durée restante).
Depuis quelques mois, j’utilise Twitter, pour suivre l’actualité sur les sujets qui m’intéressent. C’est comme ça que j’ai vu passer plusieurs des livres qui sont devenues mes lectures estivales.
MAD MAPS, l’atlas qui va changer votre vision du monde, de Nicolas Lambert et Christine Zanin
Je lis souvent avec intérêt les posts de Nicolas Lambert, le cartographe encarté. Avec sa collègue Christine Zanin, ils viennent de sortir chez Armand Colin un super atlas intitulé Mad Maps.
Détail de la couverture de Mad Maps, de Nicolas Lambert et Christine Zanin
C’est un condensé de représentations du monde comme on aime les voir, intelligentes et percutantes. J’ai adoré le parcourir, notamment certaines doubles-pages très bien conçues, à la représentation proposée super pertinente. Je pense par exemple à cette carte qui propose d’observer le ratio cadre/ouvriers dans chaque ville de France, d’une efficacité redoutable.
Très bon outil pour partager sa passion pour les cartes avec un entourage qui s’intéresse à la politique, à l’écologie, ou plus globalement qui est curieux du monde qui l’entoure.
L’éditeur en fait des caisses avec cette vidéo à la musique trépidante, mais le bouquin est génial
Pour la recherche urbaine, ouvrage collectif
La revue Urbanités proposais en juillet de découvrir l’ouvrage collectif Pour la recherche urbaine. Très théorique, plutôt animé par des chercheurs et chercheuses il interroge la pratique de la recherche autour de la ville. À travers cette série d’articles, on parcourt les dimensions sociales, écologiques, politiques, matérielles de la ville.
Détail de la couverture de Pour la recherche urbaine, ouvrage collectif
L’article « Big city, smart data ? » questionne par exemple les pratiques de pratiques scientifiques et techniques répandues dans les disciplines scientifiques où je pratique ma recherche, notamment sur la mobilité et sur la e‑santé.
Je n’ai pas eu le temps de lire tous les articles, mais j’y reviendrai avec plaisir et intérêt. Les textes sont denses, et il faut prendre le temps de les apprécier.
L’architecture de la voie, Histoire et théories, d’Éric Alonzo
C’est sur Facebook que j’ai découvert récemment le travail d’Éric Alonzo. Par chance, la librairie les Volcans avait dans ses rayons un exemplaire de l’architecture de la voie, ouvrage de l’auteur qui m’attirait le plus.
Détail de la couverture de L’architecture de la voie, Histoire et théories, d’Éric Alonzo
Le contenu est à la hauteur de mes attentes, car il retrace l’histoire des écrits et pratiques de la conception de voies de circulation, urbaines et extra-urbaines, depuis l’antiquité jusqu’à la fin du XXe siècle. Richement illustré de reproduction extraites des livres qui sont cités, on se promène parmi les pratiques et les convictions des observateurs et des bâtisseurs de voies de circulation. Des cartes, des plans, des schémas, des vues en coupes, transversales ou longitudinales, des gravures, des photos… On y retrouve illustrées les pratiques de près de 20 siècles de tracé et de fabrication des voies. D’architecture de la voie, finalement.
Très accessible, fourni en références et citations, il rappelle dans une certaine mesure, en plus vulgarisé et moins technique, le manuel Éléments de topographie, qui s’intéressait lui à décrire uniquement la pratique du début du XXe siècle. Tout simplement passionnant.
Contrôle, comment s’inventa l’art de la manipulation sonore, de Juliette Volcler
J’aime beaucoup le travail de Juliette Volcler, que je lisais dans Syntone, que j’avais rencontré à Utopie Sonore, recroisé à Longueur d’ondes (en 2018 peut-être ?), que j’avais découvert derrière feu perce-oreilles, l’annuaire de podcasts furieusement bien fourni…
Détail de la couverture de Contrôle, comment s’inventa l’art de la manipulation sonore, de Juliette Volcler
Et depuis quelques mois, je tombais régulièrement sur des posts facebook de lecteurs de son bouquin Contrôle, comment s’inventa l’art de la manipulation sonore. Une lecture stimulante en cet été d’une année 2020 pour le moins étrange.
Le fil conducteur du livre, c’est Harold Burris-Meyer, qui semble avoir été de toutes les expérimentations du contrôle par le son. Contrôle de l’émotion des spectateurs de théâtre, contrôle de l’activité salariée dans les usines, ou encore outil au service de la guerre. Riche en anecdotes, en références, le livre de Juliette Volcler se promène à travers le XXe siècle, en dévoilant l’importance prédominante du sonore dans les pratiques des industries du contrôle des masses.
Je vais m’arranger, comment le validisme impacte la vie des personnes handicapées, de Marina Carlos, illustré par Freaks
Marina Carlos fait partie du collectif les Dévalideuses, et gravite dans l’une des twittosphères que je suis avec passion. C’est avec grand intérêt que j’ai vu ses annonces puis le lancement du livre « Je vais m’arranger : comment le validisme impacte la vie des personnes handicapées », dont elle est l’autrice, et pour lequel elle s’est associée avec Freaks pour les illustrations.
Détail de la couverture de Je vais m’arranger, comment le validisme impacte la vie des personnes handicapées, de Marina Carlos, illustré par Freaks.
Le livre peut être vu comme une brochure étendue de 80 pages, qui se propose de déconstruire les mécanismes du validisme, qui pèse sur le quotidien des personnes en situation de handicap, parfois même sans que ces principales concernées ne s’en rendent compte.
Les pages sont aérées et fluides, les idées sont développées de manière simple et limpide, et les illustrations étayent encore un peu plus ce confort de parcours.
Voilà un livre à mettre entre toutes les mains, pour que la voix des Dévalideuses, du CLHEE, du CLE Autistes et de tous les mouvements portés par les personnes concernées arrive aux oreilles de toutes et de tous.
Tobie Lolness, de Timothée de Fombelle
En passant à la librairie de Clermont pour récupérer l’exemplaire de Mad Maps que j’avais commandé grâce au site chez mon libraire, on a choisi avec ma fille un roman de vacances, sur les conseils de la libraire.
Le premier volume de Tobie Lolness de Thimothée de Fombelle s’intitule la vie suspendue. On y suit l’histoire d’un jeune garçon de un millimètre et demi qui vit avec ses semblables sur l’écorce d’un arbre, où la granularité de l’écorce sculpte les paysages, où on élève les larves de charançon pour se nourrir, et où le terrible Jo Mitch élève les adultes pour creuser d’énormes tunnels à travers l’écorce de l’arbre.
Tobie Lolness, de Timothée de Fombelle
Avec les personnages, on se questionne sur la survie de l’arbre, sur le rôle de l’industrie, on découvre les questions de classe, de géographie des cimes et des basses branches, de l’importance du soleil, de l’amitié, de l’amour.
L’écriture est moderne, les personnages et l’univers délicatement racontés, on dévore le livre, où l’intrigue est palpitante, et la structure narrative dynamique à ne plus vouloir lâcher le livre.