Archives de catégorie : Logiciels libres

Enregistrer sous Linux les émissions de France TV et Arte en replay

Je prends souvent le train et j’en profite pour visionner les reportages de France TV et d’Arte sur ma tablette que j’ai enregistrés préalablement. Jusqu’à présent je me servais de l’extension de firefox Video DownloadHelper.

Extension Video DownloadHelper

il se trouve que depuis quelques mois ça ne marche plus avec France TV et plus ou moins bien sous Arte, en revanche ça marche encore bien pour youtube.

Je me suis donc en quête d’une nouvelle alternative. Pour Arte, j’ai trouvé ce site qui permet de télécharger leurs émissions. Pour France TV (et d’autres chaînes), le logiciel captvty semble être le logiciel qui fait l’affaire, mais il ne marche que sous windows. Il est cependant possible de le lancer sous Linux avec l’outil de virtualisation docker, une image avec les explications d’utilisation sont disponibles par ici. Je n’ai pour l’instant pas réussi à le faire fonctionner, les explications sont lacunaires et il ne veut pas se lancer car il manque le répertoire Tools/CefSharp. Il est également possible de le lancer avec wine ou sa surcouche PlayOnLinux comme expliqué sur ce site. Je n’ai pas tenté ces voies là.

Tout cela est un peu compliqué et j’ai choisi la solution de faciliter en installant Captvty dans une machine virtuelle Windows 7 avec VirtualBox.

captvty dans une machine virtuelle captvty dans une session XFCE sous linux

Le fonctionnement est assez simple, on sélectionne la chaîne puis les émissions enregistrables dans leur intégralité sont classées par heures de diffusion.

Mise en place d’une solution d’archivage avec rclone

Jusqu’à présent je me suis beaucoup focalisé sur les solutions de sauvegarde de mes données sans m’attarder sur leur archivage. Ce post résume un peu toutes mes cogitations sur la sauvegarde. Mais au fait quelle est la différence entre sauvegarde et archivage ? En deux mots la sauvegarde est une copie identique des données à un moment donné qui permet une restitution en cas de pertes des données d’origine. Alors que l’archivage est une copie des données avec une notion de gestion de version, c’est à dire qu’on dispose de plusieurs enregistrements effectués à des dates différentes. Cet article explique assez bien la nuance entre les deux.

J’ai donc mis assez simplement un archivage chiffré basé sur rclone sur Google Drive en mode synchronisation. Le script est assez simple et ressemble à ça

#!/bin/bash

LOG_FILE="/home/olivier/tmp/sync-rclone.log"
REP_FILTRE="/home/olivier/Documents/rep-filtre.txt"
DESTINATION="google-secret:Sauvegarde"
DESTINATION_ARCHIVE="google-secret:Sauvegarde-archive"
ladate=`date +"%Y-%m-%d--%T"`
SUFFIX_DATE=.$ladate

/usr/local/bin/rclone -v --skip-links \
    --backup-dir $DESTINATION_ARCHIVE --suffix $SUFFIX_DATE\
        sync / $DESTINATION --filter-from $REP_FILTRE --log-file $LOG_FILE

Les anciennes versions des fichiers seront sauvegardées avec le suffixe date et heure sous cette forme .2021-12-04–07:55:25. En cas de synchronisation et d’archivage on a ce message.

2021/12/04 16:35:09 INFO  : mana/data/bureautique/Finance/les comptes.ods: Moved (server-side) to: mana/data/bureautique/Finance/les comptes.ods.2021-12-04--16:34:59
2021/12/04 16:35:35 INFO  : mana/data/bureautique/Finance/les comptes.ods: Copied (new)
2021/12/04 16:35:35 INFO  :
Transferred:           2.608 MiB / 2.608 MiB, 100%, 87.635 KiB/s, ETA 0s
Checks:              1817 / 1817, 100%
Renamed:                1
Transferred:            1 / 1, 100%
Elapsed time:        36.5s

Il ne reste plus qu’à lancer le script de manière régulière avec cron pour mettre en place un archivage régulier. Vous trouverez plus de détails sur la configuration de rclone pour une synchronisation sur le cloud avec en exemple Google Drive avec chiffrement des données sur cette page de funix.org.

Sauvegarde chiffrée dans le cloud

J’ai considérablement étoffé mon dispositif de sauvegarde de mes données. J’évoquais dans ce post un premier dispositif basé sur un script bash lui même basé sur rsync qui permettait une sauvegarde incrémentale. Malheureusement j’ai rencontré un crash disque « bas bruit » qui a entraîne une corruption des données et de la sauvegarde sans que je m’en rende compte immédiatement. Suite à cet incident j’avais amélioré mon dispositif de sauvegarde et des tests d’intégrité des disques qui est décrit dans cet autre post. J’avais fait part de mes déboires sur le site linuxfr dans ce journal. Les commentaires m’ont conduit à revoir complètement mon dispositif qui repose maintenant sur les outils borg, btrfs et unison.

Tout cela est présenté et détaillé sur cette page de funix.org. et à fait l’objet de cet autre journal sur linuxfr. Les commentaires m’ont poussé à aller encore plus loin en rendant mon dispositif de sauvegarde encore plus robuste. Je l’ai donc complété par :

– une solution de sauvegarde et de partage des données base sur un cloud payant kdrive d’infomaniak avec un dispositif de synchronisation automatique et des sauvegardes manuelles. Cette sauvegarde à distance vient compléter le dispositif local et permet de le rendre encore plus robuste à un sinistre qui détruirait à la fois le serveur et les sauvegardes locales. Un troisième journal sur linuxfr détaille ce point précis, je vous invite à découvrir les commentaires qui ont été faits sur ces trois journaux qui sont assez instructifs sur les éventuelles autres solutions de sauvegarde.

– une pure solution de sauvegarde avec des données stockées chiffrées en utilisant rclone et Google Drive. Ce dernier offre une solution gratuite jusqu’à 15Go, ce qui est généralement largement suffisant pour stocker des données sensibles (hors fichiers multimédia). Si on peut s’inquiéter de la protection des données et de l’utilisation que Google peut en faire, le problème ne se pose pas car elles sont envoyées chiffrées et stockées en l’état sur le drive. C’est donc bien de la pure sauvegarde plutôt que du partage de données. A noter que ce ne sera possible avec infomaniak qu’après souscription à l’offre supplémentaire Swiss Backup.

Ces solutions basées sur le cloud sont développées dans cette autre page de funix.org.

Mise à jour de FUNIX.org

J’ai mis à jour mon site funix.org consacré à Linux, les évolutions sont les suivantes :

pages divers
– page trucs et astuces, j’ai rajouté les liens vers les posts de ce blog sur la présentation de digikam (gestion photo) et de viking (trace GPS)

pages installation d’un serveur LAMP (Linux+Apache+MySQL+PHP)
– page Apache+PHP+MariaDB (avec les sources), passage à apache 2.4.51 et  PHP 7.4.25

pages gestion des mails
– page réception des courriers et mise à disposition, passage à la version 1.5.0 du webmail roundcubemail
– page filtrer les mails, passage à l’antivirus ClamAV 0.104.1
– page analyser les logs d’apache, le projet webalizer a l’air mort, j’ai rajouté des liens pour récupérer la dernière version connue, je le supprimerai à terme.

pages multimédia
– page outils de base pour la vidéo, passage aux bibliothèques vidéo libogg 1.3.5, rubberband 2.0.0, OpenCV 4.5.4, version du 30/10/21 de x264 et ffmpeg 4.4.1
– page lecteurs vidéo, passage à VLC 3.0.16
– page mediacenter, passage à kodi 19.3 Matrix
– page transcodage, passage à avidemux 2.7.8 et HandBrake 1.4.2
– page outils multimédia divers, passage à lollypop 1.4.23, OSD lyrics 0.5.10 et Music Brainz Picard 2.6.4. OSD lyrics permet de faire du karaoké, le projet est longtemps resté inactif et est à nouveau maintenu pour le plus grand bonheur des amateurs de karaoké

OSD Lyrics


– page conteneur vidéo, passage à vorbis tools 1.4.2, libmatroska 1.6.3 et mkvtoolnix 62.0.0
– page piloter un caméscope mini DV, là aussi dvgrab semble un projet mort, j’ai rajouté une URL pour télécharger les sources de la dernière version connue

pages montage vidéo
– page montage vidéo, passage à mlt 7.0.1, kdenlive 21.08.2, cinelerra 7.4, OpenShot 2.6.1, Synfig Studio 1.5.1 et blender 2.93.5. J’ai galéré pour installer blender car il requière maintenant python 3.9 or la Mageia 8 fournit la 3.8, il faut donc faire cohabiter les deux versions, j’ai également eu des soucis avec l’installation de OpenImageIO, blender n’a pas voulu reconnaître la version que j’avais compilée et j’ai dû installer le package sans les dépendances pour ne pas écraser les différentes bibliothèques que j’ai installées manuellement en les compilant.

Blender 2.93.5

J’ai toujours un soucis avec cinelerra 7.4, qui compile plus facilement maintenant, mais qui plante au lancement.
– page tutoriel montage vidéo kdenlive, rajout de deux fonctionnalités suite au passage à la version 21.08.2, il s’agit de la fonction time remap qui permet une gestion plus fine du réglage de la vitesse d’un clip, je n’ai toujours pas bien compris comment ça fonctionnait. J’évoque également la fonction qui permet de déplacer le projet entier sur la timeline tout en gardant les guides.

La fonction time remap de kdenlive

Page téléchargement mise à jour des documents

– Installation d’un serveur LAMP
– Envoyer et recevoir du courrier pour un réseau multi utilisateurs
– Tutorial sur le montage vidéo avec kdenlive

Digikam gestion de photos évoluée

L’autre jour j’étais avec un pote, Apple addicted, qui me disait qu’il gérait ses photos avec Photos iCloud et qu’avec cet outil il bénéficiait de la reconnaissance faciale et d’une manière générale de certaines fonctions avancées qui lui permettent de plus facilement indexer, classer et retrouver ses photos. Alors bien sûr j’ai été piqué au vif, comment ça, sous Linux je ne serais pas capable de faire la même chose !

Touché dans mon orgueil, ni une, ni deux, je me mets à chercher un équivalent sous linux, après une recherche rapide, il semblerait que digikam offre ce genre de fonctionnalités. En teaser voilà ce que ça donne quand on sélectionne quelques personnes dans le Filtre d’étiquettes de visage, il n’affichera que les photos de l’album où apparaissent les personnes sélectionnées.

Jusqu’à présent je me contentais de gérer ma photos sous forme d’arborescence par année avec un système de nommage du style année-mois-jour-libellé qui permet de faire des tris. Je trouvais les outils comme digikam usine à gaz et je me satisfaisais amplement d’un outil simple comme geeqie.

Continuer la lecture de Digikam gestion de photos évoluée

Passage à MAGEIA 8 terminé

Je viens de terminer avec mon serveur Dell Poweredge T310 le passage à Mageia 8 de tous les postes de mon réseau local. Contrairement à ce que l’image ci-dessous peut indiquer, j’ai procédé une mise à jour en partant de la 7.1 sans passer par une réinstallation complète.

Dell PowerEdge T310

Ça m’aura pris un peu plus de six mois, ayant commencé en février dernier peu après la sortie de la Mageia 8 en échelonnant petit à petit dans le temps.

Continuer la lecture de Passage à MAGEIA 8 terminé

Filtrer les adresses IP menaçantes

Dans le but de sécuriser encore plus mon serveur j’ai mis en place un filtrage d’adresses IP potentiellement menaçantes. En fait certains sites comme abuseipbd ou spamhaus collectent et maintiennent de telles listes, il suffit de les récupérer et de les faire prendre en compte par son firewall favori. Pour ma part j’utilise shorewall comme firewall et je me suis basé sur cette page du wiki de Mageia (en anglais).

Il faudra utiliser l’outil IPset qui permet de gérer des listes d’adresse IP (entre autres). Tout le reste et le détail de cette installation se retrouve sur cette page de funix.org.

Dans le même genre il existe également fail2ban qui marche de manière un peu différente. Il va analyser les logs des services lancés sur votre serveur comme SSH, Apache ou bien encore OpenVPN, identifier les tentatives de connexion infructueuse et procéder au bannissement de l’adresse IP de l’indélicat via le firewall. En revanche je rencontre quelques soucis de configuration et ça n’a pas l’air de fonctionner pleinement, je continue à chercher.

Installer un réseau vpn avec openVPN

Je dispose d’un réseau local centré autour d’un serveur Dell PowerEdge T310 qui fait office de serveurs d’authentification avec OpenLDAP, de mail et de fichiers (entre autres) comme je l’ai déjà signalé à multiples reprises sur ce blog. Je suis régulièrement en déplacement et j’avais mis en place un service de webmail sur le serveur me permettant de consulter mes mails d’un mobile ou d’un portable connecté à mon mobile où que je sois. J’avais fait un post il y a quelques temps à ce sujet qu’on trouvera ici.
En revanche pour consulter les fichiers sur mon serveur, j’utilise OpenSSH en ligne de commande, ce n’est pas franchement convivial et intuitif, mais je m’en contentais jusqu’à présent.

Il se trouve que ma petite dernière entame des études à l’étranger et j’aimerais lui faciliter les choses pour qu’elle puisse accéder aux ressources du réseau local en toute transparence et simplicité. J’ai donc pensé à créer un tunnel VPN entre son Thinkpad sous Linux/Mageia et le réseau local familial.

On trouve beaucoup de tutoriels sur internet sur le sujet, mais quasiment tous présentent une configuration où tout le flux internet du client VPN se trouve redirigé vers le serveur via le tunnel VPN. L’accès internet se fait donc via le serveur avec la technique de l’IP Masquerade. C’est sûrement intéressant dans beaucoup de cas, notamment pour une utilisation professionnelle où on souhaite filtrer l’accès à internet (voire l’interdire), ou bien encore pour surfer plus ou moins masqué, mais dans mon cas ça n’apporte rien du tout, car ça ralentit considérablement l’accès à internet sur le client. Je souhaite juste que le client accède aux ressources du réseau local privé et continue à accéder à internet via sa connexion habituelle.

Du coup j’ai travaillé sur cette configuration particulière que j’expose dans cette page où sont présentées les principales étapes pour configurer le serveur et le client VPN basé sur OpenVPN. De mon poste client je peux maintenant simplement lancer la connexion VPN où que je sois connecté et accéder du terminal ou d’un gestionnaire de fichiers aux fichiers du serveur.

Accessoirement j’ai vu également que je pouvais maintenant accéder à mon VPN via mon mobile Android. Je n’en ai pas franchement l’utilité aujourd’hui, mais pourquoi pas, pour le fun je pourrais essayer, ça fera certainement l’objet d’un nouveau post.

Visualiser ses traces gps avec viking

Jusqu’à présent j’utilisais Turtle Sport pour visualiser et archiver mes traces GPS, mais depuis mon passage à Mageia 8 j’ai une erreur java et il ne lance plus. Vu que la dernière version a maintenant 4 ans, je crains qu’il ne soit plus maintenu.

Turtle Sport

Alors certes il existe des applications en ligne, donc GPS Visualizer dont je me sers beaucoup, mais l’analyse est assez sommaire et je n’ai pas trop envie que mes traces se retrouvent sur je ne sais quel serveur.

Du coup j’ai trouvé un autre logiciel qui pouvait me convenir, il s’agit de Viking qui continue, lui, à être maintenu. Alors certes, on n’a pas l’image en fond d’écran, il ne prend en natif les fichiers .FIT de mon garmin, mais l’analyse est complète et il possède de nombreuses extensions qui me restent à découvrir.

Viking GPS data editor and analyzer

A propos de la trace GPS qui est affichée sur la copie d’écran ci-dessus, il s’agit d’une sortie avec un groupe de 4 voiliers J/80 au départ de Brest vers Camaret, au près en remontant le vent de Brest à Camaret puis descente sous spi avec des pointes à 13 nœuds au retour.

J/80 devant la tourelle du Mengant dans le goulet de Brest

Passage à Mageia 8

Je me suis lancé dans le passage à Mageia 8 en optant pour une mise à jour à partir du CD ROM d’installation vu que je ne suis qu’en ADSL. Ça fait maintenant un bout de temps que je procède par mise à jour pour passer à la nouvelle version, car cela marche plutôt bien et c’est ce qui a de plus rapide pour passer d’une version à une autre sans avoir à tout reconfigurer et réinstaller.

Je dispose de plusieurs postes sous Mageia 7.1, j’ai commencé par mon thinkpad x230 et à ma grande déception le résultat est assez catastrophique. Je ne liste pas tous les problèmes tellement il y en a, ça commence par des conflits avec les packages existants de la 7.1 qui fait que dans la pratique la mise à jour via l’interface d’installation échoue et il est nécessaire de passer par un shell pour faire une mise à jour manuelle et régler les conflits au fil de la mise à jour. Ça m’a malheureusement rappeler les mises à jour catastrophiques du temps de la Mandrake, j’imaginais que ce temps là était révolu.
Une fois l’installation terminée, les soucis ne sont pas terminés, Plasma se lance pas, je me retrouve avec un écran noir et juste le curseur de la souris, XFCE est complètement cassé, avec l’enregistrement de session qui ne marche pas, le gestionnaire de fenêtre qui ne se lance pas, les conkys qui s’affichent de temps à autre, et j’arrête là la liste. J’ai essayé avec un utilisateur vierge c’est pareil que ce soit avec XFCE ou plasma.

J’ai stoppé net mon passage à la Mageia 8 et j’ai pris un peu de recul. J’ai terminé la restauration de mon thinkpad x230 après coup après quelques heures à le reconfigurer, finalement cette mise à jour m’aura pris plus de temps qu’une installation classique avec reconfiguration.

Mon écran principal de mon Thinkpad X230 sous XFCE avec xplanetFX en fond d’écran

Cette épisode m’a bien refroidi pour mes autres postes sous Mageia 7.1, néanmoins ce week end j’ai lancé la mise à jour de mon thinkpad x200 branché à la TV qui me sert de PC mediacenter avec kodi. J’ai lancé une mise à jour à partir du shell et là aussi j’ai rencontré des problèmes de conflits avec la mise à jour classique via l’interface du CD-ROM d’installation. Et là je dois dire qu’après avoir réglé les conflits et supprimer le stock de packages orphelins de la Mageia 7.1, j’ai retrouvé un système rapidement utilisable sans les déboires que j’ai rencontrées avec le x230.

Bien sûr tout cela n’est pas très engageant, mais Mageia 8 reste une excellente distribution avec une communauté active, bien maintenue et remarquablement bien finie. Les outils serveur notamment comme OpenSSH ou LAMP sont par défaut très bien configurés et les modification sont mineures, contrairement à d’autres distributions (je pense notamment à Ubuntu que j’ai pu tester et que j’ai trouvé bien moins finie pour les outils serveurs). Alors mes petites déboires de mise à jour ne doivent pas effrayer outre mesure, elles sont très probablement dues à l’installation d’outils tiers et de configuration atypique. La plupart des utilisateurs qui ne passent que par le gestionnaire de packages de la distribution avec des configurations classiques ne rencontrent pas ces problèmes.