À propos des commentaires

Ce micro-post pour signaler aux personnes qui ont tenté de laisser un commentaire que je me suis aperçu que l’anti-spam bloquait l’intégralité de leur post sans que je reçoive la moindre notification, c’est maintenant résolu !

Linux 3.13 AVERTISSEMENT: le support de clavier PS/2 est maintenant modulaire

Il a été demandé que nous (NdT: développeurs d’Arch) fassions le support pour le  contrôleur modulaire du clavier et de la souris i8042. Certaines personnes auront d’étranges messages d’erreurs parce qu’ils n’en ont pas et la recherche manuelle va ralentir leur démarrage. Tom s’en est occupé du côté du noyau (merci) et le résultat a finalement atterri dans 3.13.

Afin d’obtenir l’entrée au clavier au début du démarrage, si vous ne l’avez pas déjà fait, ajoutez le hook keyboard à la ligne HOOKS= dans /etc/mkinitcpio.conf et exécutez mkinitcpio -P. Il s’agit de la configuration par défaut depuis un certain temps.

AVERTISSEMENT: Il y a un inconvénient à tout cela: Sur certaines cartes mères (les plus anciennes essentiellement, mais aussi quelques nouvelles), le contrôleur i8042 peut ne pas être détecté automatiquement. C’est rare, mais certaines personnes seront sûrement sans clavier. Vous pouvez identifier cette situation à l’avance:

$ dmesg -t | grep '^i8042'
i8042: PNP: No PS/2 controller found. Probing ports directly.

Si vous avez un port PS/2 et obtenez ce message, ajoutez atkbd à la ligne MODULES= dans le mkinitcpio.conf et lancez mkinitcpio -P. Si vous venez de remarquer que vous êtes sans clavier après redémarrage, n’ayez pas peur! Ajoutez simplement:

earlymodules=atkbd modules-load=atkbd

sur la ligne de commande du kernel dans votre chargeur de démarrage.

Linux 3.13 sera déplacé dans [core] d’ici quelques heures, pour donner à chacun une chance de lire ce document avant la mise à jour. Pardon pour tout inconvénient que cette transition peut provoquer.

Article original

Afficher les pistes jouées par mocp dans votre i3bar

musique-coloree_878063.jpgAujourd'hui, un tips sur l'ajout d'information dans votre i3bar.
Pour effectuer ces manipulations, il vous faudra :

  • i3-wm : le gestionnaire de fenêtre qui est leger et qui roxe du poney
  • moc : le lecteur musical en ligne de commande

Récupération des informations de mocp

On peut obtenir les informations sur la piste lue par mocp assez simplement
Soit en utilisant le formatstring du fichier de configuration (lien vers la configuration de mocp)

mocp -Q  "%(a:%a – :)%(t:%t:)%(A: (%A):)"

Soit en utilisant le formatstring du man (qui est quand même plus lisible):

mocp -Q "%state %song - %artist (%album)"

Modifier l'affichage de i3status

On ne peut pas modifier i3status avec des scripts externes mais par contre on peut l'encapsuler dans un script pour y rajouter notre sauce :

#!/bin/sh
i3status | while :
do
	mocp=`mocp -Q  "%state->%song - %artist(%album)" 2> /dev/null`
	 read line
	 echo "$mocp | $line" || exit 1
done

Appeler votre script depuis i3bar :

Pour cela, vous devez modifier votre fichier .i3/config en remplaçant l'appel à i3status par votre script

bar {
         status_command /home/toto/script/myi3.sh
}

Bien penser à indiquer le chemin complet pour i3bar. Car il n'est pas exécuté avec le même path que vous.
Et surtout n'oubliez pas de rendre exécutable votre script.

chmod +x script/myi3.sh

Plus qu'à recharger votre configuration avec votre raccourci favoris.

cat .i3/config| grep restart
bindsym $mod+Shift+r restart

Faire du sso avec ssh sous Archlinux, slim et zsh

Pam-Anderson1.jpgUn billet un peu technique mais qui me semble super utile dans notre gestion des clés ssh au quotidien.

La petite histoire

Avec mon serveur dédié à administrer, je me suis replongé sur cette histoire de clé ssh.
J'en avais déja parlé dans mon article sur la migration de clé ssh entre windows et Archlinux mais la manipulation que j'avais proposé me paraissait bancale.
Je souhaitais trouver quelque chose de plus propre et de plus intégré.
J'ai essayé de me tourner vers seahorse mais cette tentative fut vite interrompue car le logiciel plantait et ne gérait pas mes accès ssh depuis un terminal.
Si quelqu'un dans la salle l'utilise, je suis preneur d'une explication censée.

Sur le papier : SSO et pam_ssh

Ayant lu un billet sur pam_ssh, je souhaitais mettre cette solution en place.
Sur le principe, cette méthode est ce qui se fait de mieux en terme de sécurité/simplicité d'utilisation.

  • On se loggue via son gestionnaire de session avec son login
  • On peut soit rentrer son mot de passe unix soit sa passphrase de sa clé située dans votre .ssh
  • Si la passphrase est valide, le gestionnaire de session lance ssh-agent et ajoute de lui-même la bonne clé dans votre trousseau.
  • Ainsi, vous beneficiez d'un ssh-agent tout configuré au plus haut niveau de votre session (en terme de processus).

En pratique : Archlinux, slim, pam_ssh, zsh

Pour arriver à vos fins, il vous faudra installer la librairie PAM SSH, elle n'est malheureusement disponible que dans AUR.

yaourt -Sy aur/pam_ssh

Ensuite, il vous suffit de modifier votre configuration de pam :

vim /etc/pam.d/login
#%PAM-1.0

auth       required     pam_securetty.so
auth       requisite    pam_nologin.so
+auth       sufficient   pam_ssh.so
auth       include      system-local-login
account    include      system-local-login
session    include      system-local-login
+session    optional     pam_ssh.so

Cette modification vous permettra de faire fonctionner votre pam_ssh avec gdm, kdm et sur un tty mais pas sur XDM ou Slim.
Pour avoir cette merveilleuse fonctionnalité, il vous faudra modifier également le fichier /etc/pam.d/slim

vim /etc/pam.d/slim
#%PAM-1.0
+auth       sufficient   pam_ssh.so
auth        include     system-local-login
account     include     system-local-login
session     include     system-local-login
+session    optional     pam_ssh.so

Note à moi-même : Pour utiliser .zprofile et .zlogin quand on utilise zsh

Cela n'a rien avoir avec la choucroute mais pour bénéficier des scripts .zlogin ou .zprofile, il faut définir dans slim zsh comme un login shell.

vim /etc/slim.com
...
login_cmd           exec /usr/bin/zsh --login ~/.xinitrc %session
...

Maintenant, vous n'avez plus qu'à vous deconnecter ou essayer sur un tty avec votre login et votre passphrase.
Pour vérifier que tout fonctionne, je vous propose les commandes suivantes :

#Normalement le ps devrait vous retourner un process de ce style
ps faux | grep ssh
ssh-agent -s

#Lister les clés en mémoires
ssh-add -l
1024 65:22:54:00:4a:5f.... /home/toto/.ssh/id_dsa (DSA)

Nota Bene :

  • J'ai observé que le mécanisme mis en place ne fonctionnait pas tout le temps et vous ?
  • Je viens d'y penser, si vous le souhaitez vous pouvez également ne pas utiliser de passphrase dans votre clé ssh ! Cela vous permettra de ne plus être importuné par le ssh à chaque connexion :D

Sources :

Ps :

Paméla est là pour représenter PAM, logique non ?

Manjaro Linux : l’alternative Gnu/Linux la plus cohérente ?

Au sujet de Gnu/Linux, il y a 2 écoles :
- les Pro “user friendly” qui se basent sur un constat simple : pas le temps (compétences) de passer 3 plombes à configurer un système Gnu/Linux. Il faut du concret, du rapide, du simple et du fiable !
- les “barbus” qui au contraire, pronent le “fait main”. Disposer d’un système basique pour le “construire”, par étapes, et obtenir un environnement “aux p’tits oignons”, fiable et adapté… quitte à y passer quelques heures.

Aujourd’hui, ces 2 écoles semblent se retrouver dans 2 types de distributions Gnu/Linux :
- toute la sphère des Ubuntu, Mint, etc. adaptées au “commun des mortels”. L’installation de ce type de distribution se fait en général en “2 clics de souris…” et permet d’obtenir rapidement un système complet (très complet …) ayant des ressemblances flagrantes avec Windows.
- et puis les distributions qualifiées de “non adpatées aux débutants” qui doivent être “domptées”. Outre Debian qui pourrait être à cheval sur les 2 types, actuellement ArchLinux représente la distribution la plus répendue la “moins adaptée” aux débutants. La phase d’installation représente un handicap, pour certains, à surmonter, pour pouvoir ensuite “construire” son système par touches successives (réseau, environnement graphique, applications diverses, …).

Inconvenients ? Du temps à passer devant sa machine, des recherches préalables … et quasi continues, des connaissances plus pointues (partitionnement, locales, configuration du serveur graphique, etc.)
Avantages ? Un système vraiment adapté à ses besoins, dépouvu de “fioritures”, maîtrisé, fiable. En fait une liberté quasi totale, de l’environnement de bureau en passant par les applications les plus courantes, etc.

Et si une distribution pouvait allier les avantages de stabilité et de liberté qu’offre Arch Linux sans toutefois imposer à l’utilisateur d’être un “expert” et d’avoir à préparer de longue date l’installation du système (comment installer ArchLinux sans le wiki … ou un bon tuto ?)

Il semble que ce type de distributions fleurissent aujourd’hui (Manjaro, Antergos, etc.). Les nombreux utilisateurs d’Arch Linux y trouveront-ils un intérêt ? (moins de temps passé à configurer ? Rapidité ? simplicité ?). En effet, Manjaro par exemple, permet d’installer en quelques clics une base d’Arch Linux assaisonnée de diverses “améliorations” prêtes-à-l’emploi. Et d’ainsi pouvoir bénéficier d’un système fiable, puissant et communautaire comme l’est ArchLinux.

Ce qui signifierait qu’Ubuntu et autres dérivés ne sont pas fiables ou communautaires ? Communautaires OUI, très certainement. Fiable : tout est relatif … et subjectif lorsqu’on aborde de type de discussion technique. Surtout lorsque notre cher R. Stallman fait passer le message : “N’utilisez plus Ubuntu, c’est mal ! Dans Ubuntu, il y a des spyware !” (http://www.fsf.org/blogs/rms/ubuntu-spyware-what-to-do, http://www.framablog.org/index.php/post/2012/12/08/stallman-ubuntu-espion)

Toujours est-il que cette réflexion, je l’ai eu depuis quelques mois. Pour moi, il était évident que, après plus de 15 ans d’utilisation de Gnu/Linux, l’idée d’installer Arch Linux (ce que j’ai fait !) n’était pas handicapant. Un bon tuto plus tard et l’affaire “était dans le sac” !
Mais en voyant poindre des distributions plus “abordables”, j’ai tout de suite “pesé le pour et le contre”. Avoir une bonne base Arch Linux, facilement installable et configurable, c’est pour moi, bien évidemment, une excellente idée.

J’ai choisi Manjaro. Je l’utilise depuis quelques mois avec bonheur.

Et vous ?

Capture d'écran - 11122013 - 20:09:50

Cet article Manjaro Linux : l’alternative Gnu/Linux la plus cohérente ? est apparu en premier sur mumbly58.fr.

Ma procédure d'installation Archlinux

Contrairement à bon nombre de distributions Archlinux ne possède pas de LiveCD avec processus d'installation plus ou moins automatisé. Bien au contraire c'est le futur utilisateur qui doit, étape après étape, préparer son ordinateur, installer les paquets de base, choisir ses pilotes graphiques, paramétrer le système et le(s) compte(s) utilisateur(s), choisir les applications qu'il utilisera... Ce qui peut apparaître comme une tâche rébarbative à certains est en fait un exercice didactique plus qu'intéressant, seul à même d'aider à passer progressivement du rôle passif de consommateur à celui d'artisan de son système d'exploitation, c'est à dire de concepteur, agenceur, réalisateur puis administrateur.

Pour nous aider dans cette procédure nous disposons de l’excellent wiki du site archlinux.fr (ou de sa version anglaise, plus complète). La méthodologie d'installation est expliquée pas à pas et sauf configuration exotique ou trop nouvelle on y trouvera tout ce qui est nécessaire et suffisant à une installation propre. En cas de difficulté on peut également compter sur une communauté très réactive dans les forums.

Toutefois pour ceux qui installent souvent des PC install parties, boulot, amis...(1) il est tentant d'essayer d'automatiser un peu les choses.

La première étape est d'utiliser ssh : cela permet le copier / coller et évite les fautes de frappe.

Ensuite, et à condition de mettre à jour régulièrement ses fiches à partir du wiki, de compiler les instructions qui nous concernent habituellement, et celles-ci seulement. Ce n'est pas la peine par exemple de ce farcir la virtualisation, les pilotes graphiques propriétaires ou même le trio apache / php / mysql si l'on installe essentiellement des machines de bureau. En cas de besoin il sera toujours possible de retourner au wiki.

Enfin on établira une listes des applications que l'on installe par défaut. Rien de plus facile après une fraîche installation :
yaourt -Qe | cut -d ' ' -f 1 | sort > liste_brute
leafpad liste_brute #retirer les paquets spécifiques, drivers, AUR...
cut -d \/ -f 2 liste_brute > liste

et mettre cette liste quelque part facilement atteignable. La mienne est ici est repose sur l'environnement de bureau KDE. Si l'on veut installer des paquets issus de AUR il vaut mieux en faire une liste à part et utiliser yaourt quand celui-ci sera installé.

booter sur l'image d'installation et installer ssh

loadkeys fr #taper loqdkeys fr puisque le clavier est pour l'heure en qwerty
pacman -Sy openssh
nano  /etc/ssh/sshd_config
  #décommenter "PermitRootLogin yes"
  #décommenter "PermitEmptyPasswords no" et mettre la valeur à yes
systemctl start sshd
ifconfig #pour connaître l'adresse ip à laquelle se connecter avec ssh

Se connecter depuis une autre machine

ssh root@192.168.x.y #mettre ici l'adresse trouvée à l'étape précédente.

Partitionnement

Créez au minimum une partition racine et une pour /home. Avec les machines modernes disposant de plus de 2Go de mémoire il n'est plus nécessaire de prévoir de swap, sauf si vous prévoyez d'utiliser l'hibernation. Utilisez fdisk ou gdisk suivant que votre disque dur doive être partitionné en MBR ou en GPT. Si votre carte mère utilise un firmware UEFI il est en principe nécessaire d'utiliser GPT.


Montage des partitions

mount /dev/sdaX /mnt                    # remplacez sdaX par la partition qui va bien
mkdir /mnt/home
mount /dev/sdaY /mnt/home               # remplacez sdaY par la partition qui va bien
swapon /dev/sdaZ                        # si partition de swap

Installer la base

pacstrap /mnt base base-devel

Créer le fstab

genfstab -U -p /mnt >> /mnt/etc/fstab

chroot

arch-chroot /mnt

Nom machine

echo NomDeLaMachine > /etc/hostname

locale et fuseau horaire

echo "fr_FR.UTF-8 UTF-8 " >> /etc/locale.gen
locale-gen
echo 'LANG="fr_FR.UTF-8"' > /etc/locale.conf
export LANG=fr_FR.UTF-8
ln -s /usr/share/zoneinfo/Europe/Paris /etc/localtime

clavier

echo KEYMAP=fr-pc > /etc/vconsole.conf
nano /etc/X11/xorg.conf.d/10-keyboard-layout.conf
# coller les éléments ci-dessous
# (disposition oss avec æ et œ)
  Section "InputClass"
    Identifier         "Keyboard Layout"
    MatchIsKeyboard    "yes"
    MatchDevicePath    "/dev/input/event*"
    Option             "XkbLayout"  "fr"
    Option             "XkbVariant" "oss"
  EndSection


pacman

echo -e '\n[archlinuxfr]\nSigLevel = Never\nServer = http://repo.archlinux.fr/$arch' >> /etc/pacman.conf
cp /etc/pacman.d/mirrorlist /etc/pacman.d/mirrorlist.backup
sed '/^#\S/ s|#||' -i /etc/pacman.d/mirrorlist.backup
rankmirrors -n 6 /etc/pacman.d/mirrorlist.backup > /etc/pacman.d/mirrorlist
pacman -Syy

Cloner

wget http://blog.vintherine.org/public/Linux/liste # mettre votre liste à la place, voir plus haut
# ou nano liste et copier / coller
pacman -S `cat liste`
rm liste
# si yaourt est dans la liste il est maintenant disponible pour installer des paquets AUR.

Pilotes graphiques

lspci | grep VGA
# En fonction du résultat choisi l'un des 3 pilotes ci-dessous Pacman -S xf86-video-intel pacman -S xf86-video-ati pacman -S xf86-video-nouveau nouveau-dri libtxc_dxtn

ramdisk

mkinitcpio -p linux

root

passwd # saisir le mot de passe root
echo "export EDITOR=nano" >> /root/.bashrc

Installer grub (Système BIOS)

grub-mkconfig -o /boot/grub/grub.cfg
grub-install --no-floppy --recheck /dev/sda 

Installer grub (Système UEFI)

mkdir -p /boot/efi
mount -t vfat sdaX /boot/efi  # remplacez sdaX par votre partition EFI
mkdir -p /boot/efi/EFI        # Peut-être existe-t-il déjà si Windows a été pré-installé
grub-install --target=x86_64-efi --efi-directory=/boot/efi --bootloader-id=arch_grub --recheck
grub-mkconfig -o /boot/grub/grub.cfg
N.B. se reporter au wiki pour démarrer d'autres systèmes (Windows par ex.)
 

Démarrer les services

systemctl enable sshd
systemctl enable NetworkManager
systemctl enable ModemManager.service   #s'il faut gérer une clef 3G
systemctl enable kdm visudo #décommenter %wheel ALL=(ALL) NOPASSWD: ALL

Créer un utilisateur

useradd -g users -m -s /bin/bash -G sys,adm,lp,wheel,uucp,locate,games,network,video,audio,optical,storage,scanner,power <nom utilisateur>
passwd <nom utilisateur>

Quitter et redémarrer

exit
umount -R /mnt
reboot

En conclusion

Voilà ma procédure à ce jour, elle devra toujours évoluer avec la distribution. Peut-être inspirera-t-elle un archer qui aura la même problématique que moi pour établir la sienne, mais en aucun cas elle ne devrait être suivie aveuglément. Elle n'a pas vocation à remplacer le wiki mais seulement à rendre l'installation plus rapide quand on en maîtrise préalablement les principales étapes.


(1)  Pour répondre d'avance aux arguments (fallacieux) selon lesquels Arch n'est pas une distribution à installer pour tout le monde je dirais :
  • que d'après mon expérience une Arch, hors situation exceptionnelle (1 fois par an ?) est plus facile à mettre à jour qu'une Ubuntu
  • que comme en cas de problème c'est moi qui intervient autant que ce soit sur la distribution que je connais le mieux
  • que ssh ce n'est pas fait pour les chiens
  • qu'une rolling release évite une grosse manip tous les 6 mois (ou une très très grosse qui ne fonctionne pas toujours tous les 2 ans)
  • qu'avec Arch on n'a pas à s'emm..... avec les ppa
  • et que de toutes manières c'est comme ça et pas autrement. Na !

Le jeu du chat et de la souris

À l'époque héroïque où j'ai découvert Internet (1994 ?) j'utilisais un modem 28Kbs et devais me connecter sur un BBS en Normandie (Calvacom) depuis ma Savoie natale. Au prix où France Télécom facturait la minute, le surf était plutôt limité. De ce fait les messages publicitaires étaient franchement mal vus. C'est tout juste si l'on admettait qu'une signature en bas de mail fasse référence à l'entreprise dans laquelle on travaillait. Le web était encore balbutiant et une pub sur Mosaic (l'ancêtre incestueux de Netscape dont une version devint Mozilla avant de se libérer et de donner naissance à Firefox...ouhhh), aurait vraiment paru incongrue.

Puis vint le RNIS qui permettait le surf à 64Kbs tout en laissant une ligne pour recevoir les appels téléphoniques. Mais comme FT facturait le double il n'y avait pas franchement d'économies. Aussi cette technologie ne trouvait preneur que dans les petites entreprises (dont le petit artisan que j'étais) pendant que les grosses utilisaient des lignes dédiées et les particuliers des modems 56Kbs. Toutefois les géants du commerce commençaient à entrevoir ce que le Web pouvait leur apporter et l'on vit fleurir les sites .com, pris de haut par les barbus de l'époque qui n'avaient que leur mépris à opposer à ceux qui allaient irrémédiablement briser leur rêve d'un Internet communautaire, éducatif et solidaire.

l'ADSL apparut en 1999, d'abord dans les grandes villes. C'était un progrès incontestable puisque pour la première fois la grande masse des utilisateurs n'avait plus à payer la connexion à la durée et il était possible de télécharger des fichiers important. Pour les linuxiens cela voulait dire les CD d'installation et les mise à jour de nos distributions, mais aussi les forums, les fanzines... Pour madame Michu il manquait encore un peu de contenu mais le monde du commerce comprit vite qu'il tenait là un filon inestimable. En dehors des épiphénomènes tel l'éclatement de la bulle Internet en 2000, on assista à une mainmise de nouveaux géants du web (Yahoo, Google, Amazon, Ebay....) sur Internet pendant que la publicité s'abattait sur le réseau comme la vérole sur le bas clergé.

Alors la souris internaute chercha tous moyens à se protéger des griffes de Raminagrobis.


En 2004 Mozilla s'attaqua de front à Internet Explorer... en s'offrant une pleine page de publicité dans le New York Times, grâce aux dons des internautes. Dans sa lutte contre le monopole de Microsoft la fondation fit valoir de nombreux arguments techniques, dont le respect des standards HTML et sa plus grandes sécurité... Mais d'autres trouvèrent écho bien au delà du microcosme libriste, et notamment la possibilité de bloquer facilement les popups puis, grâce à un module externe, de supprimer quasiment toutes les publicités. Adblock, devenu Adblock plus en 2004 à la suite d'un fork, est depuis l'extension la plus populaire et la plus téléchargée. Elle existe maintenant pour la plupart des navigateurs, dont Chrome (1), Opera... et même Internet Explorer !

Naturellement cette popularité dérangea et l'on entendit le chœur des pleureuses annoncer la disparition de l'Internet gratuit. Au sein même de l'équipe de développement on fit un subtile distinguo entre publicités "intrusives" et d'autres qui seraient "acceptables", en intégrants ces dernières dans une liste blanche activée par défaut (et que bien peu d'utilisateurs désactivent). Plus d'explications sur cette page. Mais lorsque Tim Shumacher, directeur des communications d'AdBlock Plus, admit que quelques grandes entreprises du Web (notamment Google) payaient pour figurer sur cette liste blanche, certains commencèrent à mettre en doute la crédibilité de la démarche. D'où un nouveau fork appelé Adblock Edge (voir les différences entre Adblock Plus et Adblock Edge).

Parallèlement certains sites tentèrent par divers moyens de dissuader leurs visiteurs de bloquer leurs petites rentes. En faisant appel aux bons sentiments (nous avons besoin de la pub pour vivre) ou même en interdisant l'entrée à ceux dont l'usage du module en question était détecté. Bah... à malin malin et demi. Puisqu'un script pouvait détecter l'usage d'Adblock, un autre pouvait tout aussi bien le cacher. Comme Anti-Adblock Killer par exemple (pour les anglophobes voir annexe ci-dessous).

Toutefois la publicité affichée n'est que de la face visible de l'iceberg : en "communication" le maître mot est ciblage. Et le champion en la matière est évidement Google, qui fort de sa position dominante enregistre le moindre de vos clics dans son moteur de recherche, lit votre courrier (que vous soyez auteur ou destinataire si l'un au moins des correspondant utilise gmail) et tente par tous moyens de vous faire renoncer à votre anonymat (Google +, Picasa, Youtube....). Ceci a été démontré depuis fort longtemps et je ne reviendrai pas dessus (2). Je ne m'attarderai pas non plus sur ces réseaux soit-disant sociaux ou notre société à l'imprudence et l'impudence de s'exhiber, et me contenterai de rappeler quelques outils permettant au moins de limiter la casse.

  • Startpage en lieu et place de Google : Startpage fait profession de foi de ne pas conserver votre ip et s'appuie (entre autres) sur Google comme moteur de recherche. En gros c'est Google sans ses mauvais cotés.
  • Noscript comme bloqueur de script : bloque tout par défaut, sauf ce qui est dans votre liste blanche. Il y a même une liste noire pour ce dont vous ne voulez plus entendre  parler. La page dédié sur Wikipédia.
  • Dans le même registre certains trouveront plus facile d'utiliser Ghostery qui bloque également certaines redirections et certains cookies, en se basant notamment sur leur origine et destination. Toutefois, et contrairement à Noscript, Ghostery est une application propriétaire, c'est à dire dont on ne dispose pas des sources et dont on ne peut affirmer avec certitude qu'elle ne fait que ce qu'elle prétend faire. Elle est d'ailleurs l'objet d'une polémique relatée sur la page anglaise de Wikipédia à propos d'un double jeu dont Evidon, la société propriétaire de Ghostery, serait l'acteur.

Coté e-mail, blog, photos et vidéos, les libristes purs et durs ne jurent que par l'auto-hébergement. Il n'en sera pas question ici. D'une part parce-qu'une connexion avec un upload décent n'est pas disponible partout, et pas bon marché. D'autre part parce qu'assurer une disponibilité de service 24h/24 7j/7 n'est pas l'objet d'un équipement informatique personnel. Enfin parce que la plupart des internautes rechigneront à installer et administrer un serveur web (Apache - PHP - MySQL), même si ce n'est pas très compliqué.

Pour le mail et le blog le plus simple est d'avoir son propre nom de domaine. Certes il faudra débourser entre 10 et 15€ par an, mais rappelez-vous : si vous ne payez pas pour un produit, c'est que c'est vous le produit. Personnellement j'utilise Gandi : avec mon domaine je dispose de 5 adresses mails, d'un blog (celui-ci) et d'un petit site web statique de 3 pages (que je n'utilise pas). 

Pour l'hébergement de mes photos j'ai choisi Piwigo. J'explique mon choix dans ce billet. Pour les vidéos je cherche encore... Mais dans ce domaine aussi je préférerais une petit chez moi qu'un grand chez les autres.


Annexe
: comment installer Anti-Adblock Killer

Anti-Adblock Killer est un script qui repose tout à la fois sur le gestionnaire de script Greasemonkey qu'il vous faudra préalablement installer (lien pour firefox) et sur une liste pour Adblock + à laquelle il faudra souscrire. Il ne restera plus qu'à installer le script lui-même en cliquant sur ce lien.

(1) une menace pèse sur Adblock pour Chrome : la volonté de Google de contrôler toutes les extensions de son navigateur. Voir ici et .

(2) si, quand même, pour les derniers sceptiques, s'il en reste. Si vous survolez un lien dans le moteur de recherche l'adresse indique dans la barre d'état de votre navigateur est bien la bonne. Mais si vous cliquez dessus (ou bouton droit -> copier le lien) elle devient comme par magie une bouillie infâme genre "http://www.google.fr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CDIQFjAA&url=http%3A%2F%2Fblog.vintherine.org%2F&ei=kXt_UvnWF-XP0QWVpYA4&usg=AFQjCNHJO3emT-v48BGQf9ro7tqsnd9viQ" avant de vous rediriger finalement au bon endroit. Vous devinez pourquoi ? Vous pouvez faire la même expérience avec Startpage sans mauvaise surprise et, du coup, copier / coller les liens directement depuis la page du moteur de recherche.

Installation d'Archlinux sur un Asus X75VD

Dans une grande surface près de chez moi j'ai trouvé un Asus X75VD en solde pour la modique somme de 350€. Sachant que Asus rembourse 42€ sur simple demande par mail (voir ci-dessous) une licence Windows 8 sans utilité, cela ramenait à 308€ pour un i3, 8Go de RAM et 750Go de disque. Ça tombait bien, le PC de ma fille aînée commençait à donner des signes de faiblesse.

À peine envoyé le mail qui va bien à Asus, et puisque le PC était destiné à ma fille, j'insérais sans délai la clé USB d'installation de la LinuxMint dont elle avait l'habitude et... écran noir. Ah ! Qu'est-ce à dire ? Mint buggué ?

Je télécharge Ubuntu, insère derechef la sus-dite clé... pour un résultat identique. Ah !

Pour vérification j'insère la clé d'installation Archlinux et là pas de problème. Le problème vient donc de xorg. Pourtant j'étais sûr qu'il y avait une GPU Intel. Je fais lspci | grep VGA pour vérifier et...

lspci | grep VGA
00:02.0 VGA compatible controller: Intel Corporation 3rd Gen Core processor Graphics Controller (rev 09)
01:00.0 VGA compatible controller: NVIDIA Corporation GF119M [GeForce 610M] (rev a1)

Damned, je suis refait, il y a 2 cartes graphiques, une Intel et une nVidia. Il s'agit de fameuse fumeuse technologie Optimus, qui valut entre autre un beau doigt d'honneur de Linus à l'adresse de nVidia. Et rien dans le BIOS permettant de désactiver l'une des deux cartes.

Retour sur la doc Ubuntu :

impossibilité de démarrer un média d'installation (LiveCD, LiveUSB) et de manière plus générale, l'impossibilité de démarrer un Linux quelconque. Ce problème est généralement dû à un Kernel Panic provoqué par le pilote libre pour carte graphique nVidia, nouveau, qui supporte très mal cette technologie.

Ben y'a qu'à pas l'installer le pilote nouveau, comme ça on restera bien sagement avec le pilote xf86-video-intel. Oui mais ça c'est pas dans la philosophie Ubuntu : par défaut on installe tous les pilotes et on laisse udev se démerder. Bon, il y a sûrement moyen de se faire une installation à la pogne mais j'ai trop peur qu'un apt-get dist-upgrade vienne tout casser. Je me décide donc pour installer une Arch, au moins je sais ce qu'il s'y passe.

Premièrement partitionner. Je décide de laisser le partitionnement en GPT et l'emploi de gdisk en lieu et place du fdisk habituel ne pose pas trop de problème. La question serait plus délicate s'il s'agissait de conserver partiellement Windows mais comme l'emploi d'un LiveCD n'est pas possible, je ne peux pas utiliser gparted.

À défaut d'être gravée dans le marbre ma procédure d'installation fait l'objet d'une petite fiche qui me permet des copier / coller dès lors que j'ai pu me connecter en ssh. Du reste je me demande pourquoi openssh n'est pas installé / démarré par défaut dans l'iso officielle. En attendant je tape les commandes habituelles :

loadkeys fr                 # pour avoir le clavier en français
pacman -Sy openssh # installer openssh
passwd # donner un mot de passe à root pour se loguer en ssh
nano /etc/ssh/sshd_config # et décommenter la ligne PermitRootLogin yes
ifconfig # pour connaître l'adresse ip
systemctl start sshd # et roule ma poule !

Je n'ai donc plus qu'à me connecter depuis un poste muni d'une interface graphique et  suivre mes fiches ou l’excellent wiki d'Archlinux. Pour les anglophobes il existe un wiki en français mais moins complet (comme d'hab). Je ne ferai donc pas un compte rendu détaillé mais me contenterai des résolutions des quelques petites difficultés rencontrées.

Grub et EFI

J'ai l'habitude d'utiliser grub comme chargeur d'amorçage, et avait pris soin de charger le module efivars avant le arch-chroot. Mais j'ai eu droit à un magnifique

modprobe: FATAL: Module efivars not found

Donc /sys/firmware/efi/efivars restait vide dans l'environnement d'installation et grub refusait de s'installer correctement. Le bug (incompatibilité de niveau entre le noyau et efibootmgr) et son contournement sont expliqués ici mais comme j'avais utilisé avec succès l'iso du mois de septembre j'ai tout simplement fini l'installation de grub avec celle-ci. Après boot sur la clé :

modeprobe efivars
arch-chroot

puis classiquement (grub, dosfstools et efibootmgr ayant été installés préalablement) :

mkdir /boot/efi
mount /dev/sdax /boot/efi/
grub-install --target=x86_64-efi --efi-directory=/boot/efi --bootloader-id=arch_grub --recheck
grub-mkconfig -o /boot/grub/grub.cfg
J'espère que le problème sera résolu sur la prochaine iso.

xorg

Après installation de xorg je me suis contenté d'installer xf86-video-intel sans installer ni nouveau ni le pilote propriétaire. Et comme je l'espérais cela a fonctionné sans problème. Comme ce PC est destiné à la bureautique et un peu de multimédia cela suffit amplement.

Par mesure de sécurité j'ai blacklisté le module nouveau et installé bbswitch pour éteindre la carte au boot :
-> options bbswitch load_state=0 dans /etc/modprobe.d/bbswitch.conf

Pour tout savoir sur optimus sous Archlinux voir la page de wiki consacrée à Bumblebee (la page en français pour les anglophobes)

Wifi

Maintenant que xorg fonctionne, que j'ai installé KDE et vérifié que le son fonctionne, il reste à m'occuper du réseau. Toute l'installation a été faite en utilisant l'interface ethernet, mais ma fifille utilise soit le wifi soit une clé 3G. Pour cette dernière partie il suffit d'installer modemmanager en complément de NetworkManager ainsi que usb_modeswitch. Voir la documentation ici.

Pour le wifi ça a été plus compliqué : impossible d'activer la carte, témoin éteint et touche de fonction prévue à cet usage sans effet. rfkill list me confirme cet état de fait :

rfkill list
0: phy0: Wireless LAN
Soft blocked: no
Hard blocked: no
1: asus-wlan: Wireless LAN
Soft blocked: no
Hard blocked: yes

Tout d'abord je ne comprend pas pourquoi je vois 2 cartes au lieu d'une mais après des heures carrées de recherche sur le web je fini par trouver ce post ou un gus suggérait de blacklister un module hp-wmi. Chez moi c'était naturellement un asus-wmi que j'ai blaclisté et effectivement j'ai pu utiliser le wifi. Et rfkill list ne me montre plus qu'une carte, comprenne qui peut.

rfkill list
0: phy0: Wireless LAN
Soft blocked: no
Hard blocked: no

Le témoin reste éteint, la touche de fonction sans effet mais le wifi fonctionne. Bah....

Sortie de veille

Ultime vérification avant de livrer l'appareil à son destinataire, et notamment mise en veille. Et nouveau problème ! Plus de réseau ethernet en sortie de veille (le wifi fonctionne). dmesg me montre des tonnes d'erreur

kernel: alx 0000:04:00.0: invalid PHY speed/duplex: 0xffff

ifconfig up et systemctl restart NetworkManager sont sans effet, et le système crash à l'arrêt de la machine.

C'est de toute évidence le pilote alx de la carte qui est en cause. La solution est donc de le décharger à la mise en veille et de le recharger en sortie de veille. Un peu bricolo, pas très élégant, mais ça fonctionne.

sudo nano /etc/systemd/system/root-suspend.service
[Unit]
Description=Local system suspend actions
Before=sleep.target
[Service]
Type=simple
ExecStart=/usr/bin/rmmod alx
[Install]
WantedBy=suspend.target
sudo nano /etc/systemd/system/root-resume.service
[Unit]
Description=Local system resume actions
After=suspend.target
[Service]
Type=simple
ExecStart=/usr/bin/modprobe alx
[Install]
WantedBy=suspend.target

et rendre tout ceci actif au démarrage :

sudo systemctl enable root-suspend
sudo systemctl enable root-resume

Ici le post ou j'ai trouvé cette solution.

Conclusion

bon, c'est pas franchement du "out of the box", mais tout fonctionne. Youpi !

Annexe : Demande de remboursement de la taxe Windows

Mail adressé à acf_coa@asus.com

Bonjour,

Je viens de faire l’acquisition d’un Ultrabook Asus X75VD-TY256H Numéro de série D3N0CX286768119
Je suis très content de cet achat, cependant, je ne souhaite pas conserver le système d’exploitation Windows 8 qui ne me convient pas.

Je n’ai pas encore démarré la machine. Pourriez-vous me donner la procédure afin d’obtenir le remboursement de la licence Windows 8.

Mes coordonnées :
Vincent Gay
xxxxxxxxxxx, 74000 Annecy - France
Téléphone : +33 (0)4 50 xx xx xx

Vous trouverez en pièce jointe :
- copie de la facture d'achat
- copie de la page 1 de la « carte de garantie ASUS »
- photo de l'étiquette Windows situé sous l'appareil

Cordialement,

J'ai eu en retour deux formulaires pré-remplis que je n'ai eu qu'à signer et à renvoyer à la même adresse.

Partir vers de nouveaux horizons...

Après y avoir longuement pensé ces derniers jours, la nouvelle est tombée comme un couperet. J’ai décidé purement et simplement d’arrêter d’écrire des articles sur ce blog.
À l’heure actuelle, j’ignore si cette décision est temporaire ou définitive, car je suis toujours autant animé par cette envie profonde, de m’exprimer sur des sujets variés. Cette pause me permettra de réfléchir à la nouvelle orientation, pour éventuellement avoir un nouveau départ. Je pense aussi me concentrer sur la programmation et mes configs (sur mes différents postes). C’est un point que j’ai trop longtemps négligé et je le regrette, car j’éprouve désormais un manque.

partir

Mes positions sont souvent tranchantes et critiques, car j’ai toujours défendu avec ardeur, les choses que je juge importante. J’imagine parfaitement que mon style ne plaise pas à certains.

Mais pourquoi arrêter?
Pour une multitude de raisons. J’ai parfois l’impression que certains de mes propos sont déformés, voire même tournés en dérision. Je ne veux pas non plus passer pour un donneur de leçons, alors que j’essaie justement d’expliquer mon point de vue, en proposant des alternatives éventuelles.
En tant que rédacteur, on s’implique beaucoup dans son travail. Pour ne pas tourner en rond, je dois changer les problématiques et les thèmes. Il y a aussi d’autres raisons, mais je ne préfère pas en parler.

Ce “blog” m’aura apporté beaucoup de choses, pendant ces deux années et huit mois. Premièrement, un sentiment de fierté, car j’aurai réalisé quelque chose que je souhaitais faire depuis longtemps. Je me suis également prouvé à moi-même que je pouvais développer mon avis, une pensée, en essayant d’argumenter. J’ai évolué au fil du temps, pour écrire autre chose que des articles “bateaux”, tout en améliorant mon style d’écriture.

argument

J’ai exposé mon argumentation sur des sujets divers et ça m’a permis de me poser les bonnes questions, car chaque réponse n’est pas forcément évidente. Moi qui suis obsédé par la communauté et les aspects de partages, j’ai écrit ces articles pour mes lecteurs sans objectif quelconque, si ce n’est vous “donner” un retour.

“Etre heureux, c’est savoir partager.”

Jean Gastaldi

J’ai aussi connu des gars intéressants que je n’aurais probablement jamais découvert sans ce blog, comme shoewilliam, Damien ou encore Neros. J’aime communiquer avec eux, pour parler de sujets variés.
Je prévois de sortir un dernier article en octobre, afin de soutenir le projet d’une personne talentueuse. C’est un projet dans lequel je me suis investie et je vais essayer de le faire encore plus à l’avenir. Dorénavant, j’écrierai certainement sur Morphisme, car je ne souhaite pas abandonner mes camarades et l’idée de ce projet commun m’excite beaucoup. Je posterai quand l’inspiration sera au rendez-vous.

Et comme toujours, si vous voulez vous exprimer, vous pouvez me contacter par email.

Y.

Steam(OS) et l'esprit du Logiciel Libre

Salut les mecs,
Même si actuellement presque tout le monde en parle sur la Toile, que ce soit Valve lui-même, les nombreux sites web ou les utilisateurs, je voulais développer mon opinion et surtout exprimer mes interrogations à propos de SteamOS. Il ne s’agit donc pas d’un manque d’inspiration. Si vous êtes déjà arrivé à l’intox, vous pouvez passer votre chemin.

Mon avis est bien tranché grâce à mon utilisation des services Steam (sous Windows) et ceux depuis plusieurs années. Peut-être qu’en lisant ces lignes, vous exprimerez un profond désaccord, voire même une opposition, mais j’écris mes articles en fonction de mes idées et non pas en me demandant si on va me cracher dessus ou pas.
Pour ceux qui ignorent ce qu’est SteamOS, une recherche rapide via votre moteur favori, vous donnera plus d’informations sur le projet.

steamos
L'emblème de SteamOS.

À l’heure où je rédige mon article, on assiste à un vrai déferlement de news (et je ne parle pas encore de “SteamMachines”), de commentaires passionnés et réjouis, surtout que Steam à décidé de mettre les petits plats dans les grands. Malgré la rumeur d’une console “made in Steam” relayée il y a des mois, je suis intrigué par cette annonce.
Valve a d’abord annoncé SteamOS, suivi par SteamMachines et prévoie de faire une troisième déclaration.

SteamOS a des points qui me m’inquiètent et m’interpellent. Je ne cherche absolument pas à dénigrer l’outil Steam, car je l’utilise moi-même sur mon Windows 7 et en effet, il est difficile d’y passer à côté (même si vous êtes un joueur occasionnel) tant la politique commerciale y est agressive, surtout avec les promotions à divers moments phares de l’année, vous permettant ainsi de profiter de jeux à moindre coût. Et je ne parle pas de la recrudescence de jeux, qui s’activent uniquement avec Steam (Skyrim, Max Payne 3, Deus Ex Human Revolution, Hitman Absolution et j’en passe), vous obligeant à disposer d’un compte, pour profiter de votre jeu acheté légalement.

Steam n’est pas uniquement LA plateforme du jeu, mais c’est un modèle économique à part entière, bref un système mécaniquement très bien rodé et huilé. Rien n’est laissé au hasard. La création de leurs propres outils permet de montrer au géant Microsoft, qu’il peut se passer de son dictat (lié au système de Store sous Windows 8). Cette divergence a d’ailleurs été exprimée au début de Windows 8, par le Big Boss Gabe Newell.
Cependant, je pense que Valve est bien présomptueux. N’oublions pas que Steam s’est construit grâce aux ordinateurs tournant sous Windows (ce que certains gougnafiers appellent communément les PCs) et actuellement leur business est également assuré, par ces mêmes ordinateurs. Et ça ne changera pas avant un bon nombre d’années.
Voilà pourquoi je ne comprends pas trop l’objectif d’une telle décision (ici on parle de business, pas d’éthique). Pour le moment, le catalogue des jeux est relativement restreint et ce n’est pas la fonctionnalité de streaming qui va faire pencher la balance, donc oui je trouve cette annonce “étonnante”.
Selon moi, tout cette communication commencée il y a plusieurs mois, avec l’annonce des jeux natifs, en plus du client était parfaitement calculée, histoire de faire monter la sauce. Je me demande si nous aurions eu un client natif, sans le projet SteamOS. Je ne le pense pas.

money
We do it right for money.

Ce qui me révolte dans un certain sens, c’est la pensée unique. Cette pensée parfaitement ancrée dans les mentalités et les esprits. Elle consiste à se dire que Steam est le seul à inover, à “démocratiser” GNU/Linux et y à proposer des jeux de qualités. Que Steam existe ou non, celà fait des années que des acteurs importants apportent leurs contributions. Je pense surtout à IDSoftware, qui en général sort des clients natifs (même si Rage a été pour moi une cruelle désillusion) et place leurs anciens moteurs sous GPL. Mais il y a aussi les nombreux jeux indés, souvent propulsé par l’initiative Humble Bundle, ou encore Desura et son client multi-plateforme Desurium placé sous licence libre. D’après cet article, ces développeurs n’encouragent pas les DRMs. Et je dois certainement oublier des acteurs majeurs comme Unigine. Donc aparemment, il est possible de créer une alternative à Steam, qui soit respecteuse.

desurium
Desurium: un Steam-like sous GPLv3.

À l’heure où j’écris ces lignes, j’ignore sur quelle distribution SteamOS sera basé. Certains crient Debian, d’autres chuchotent Ubuntu (oué oué je sais, Ubuntu est basé sur Debian, blablabla), mais au final rien de bien concret, si ce n’est du vent.
Admettons que ce soit Debian, la vitrine de GNU/Linux et surtout du Logiciel Libre (quoi qu’en dise la FSF), je trouve ça assez révoltant et incroyable la volée de DRMs que l’on va se prendre en pleine tronche. D’ailleurs c’est plutôt ironique, car j’ai vu certains “libristes” qui semblent occulter et oublier (volontairement?) ce point, il semble qu’ils soient prêts à bouffer du DRMs par paquets. Il n’est pire aveugle que celui qui ne veut pas voir. Devant de telles pratiques (qui sont connus de tous), je me demande si tout cela à vraiment une place sur un OS comme le nôtre.
Alors certes, un nombre important de jeux ne comportent pas de DRMs, mais il y en a et en aura toujours trop. Je ne dénonce pas que les conséquences, il y aussi les causes qui sont encore plus graves. Par ailleurs, je me doute bien qu’il est impossible et utopique, que tous les jeux du marché soient libres, mais ne pas inclure ces dispositifs de restrictions et de contrôle est quelque chose d’essentiel. Je dirais que c’est un excellent début, une base solide. Certains le font et ils ne vont pas plus mal.
Mes propos sont-ils abstraits? Est-ce révoltant de le dénoncer? Je le fait avec Steam mais d’autres le font avec HTML5, ou avec les formats musicaux (cf WMA-DRM), il n’y a donc rien de calomnieux.

hollyweb
Ne verrouillons pas le Web.

Depuis déjà de nombreuses années, je pense qu’il est bien plus facile aux “pirates” (comprenez ceux qui n’achètent pas leurs jeux) de profiter des jeux “AAA” sans aucun problème, par rapport aux personnes qui font l’effort de payer avec leurs deniers. Cette critique est également valable pour Origin et Uplay, qui sont aussi des moyens pour vous restreindre. Celui qui a acheté son jeu doit passer par X systèmes d’authentifications / vérifications online (ou avec SecuROM et StarForce), alors que celui qui l’a téléchargé via P2P, a juste à appliquer des hacks et il peut jouer tranquillement. L’exemple criant est l’utilisation de “no-CD” ou “no-DVD”, car parmi mes titres, il est rare que je puisse jouer sans le DVD dans le lecteur.
Quand j’étais plus jeune, j’avais prêté “Half-Life 2: Episode One” (le jeu était neuf et s’activait avec Steam) à un camarade. Quelle ne fut pas ma surprise, quand je me suis aperçu que ce jeu était “lié” au compte de mon ami. J’avais payé mon jeu, mais je ne pouvais pas y jouer, ni le préter.
Autre point qui me dérange: l’impossibilité de revendre certains jeux. Steam vous empêche de vendre vos jeux. Une association de consommateurs a d’ailleurs attaqué Valve en justice (plusieurs fois je crois), car il enfreint la législation de l’UE. J’ai un sentiment: celui d’avoir acheté des produits qui ne m’appartiennent pas vraiment. Cette impression n’est pas due au fait que ce soit du dématérialisé, j’éprouve la même chose pour les versions “boîtes”.
Conclusion: ces systèmes pénalisent seulement les personnes honnêtes et n’enrayent en rien les jeux disponibles en P2P (mais vous devez probablement le savoir).

drm
Eliminons les DRMs!

Certains me diront qu’il est tout de même préférable d’utiliser Steam sur un système dit libre, je suis parfaitement d’accord. En effet, le système a une base saine, mais je trouve que dans un certain sens, on ne fait qu’importer le problème vers un autre endroit.

De même, je ne sais pas qu’elle sera la licence de cet outil. Beaucoup de sites disent que ce sera libre, mais libre de quoi? Ce terme affreusement générique, ne veux absolument rien dire dans la “bouche” des sites traitant de news “Linux”, au côté de la nouvelle mise à jour SP1 de Seven. Uniquement libre de l’utiliser ou libre de le modifier, le hacker, l’améliorer? Évidemment, avant de grimper au rideau, je préfèrerais voir et lire le fichier LICENSE, mais je me fais aucune illusion.

Autre question un peu plus technique cette fois, comment cela va-t-il se passer avec le kernel Linux. Vont-ils pomper tout le boulot des contributeurs ou vont-ils apporter des commits utiles et intéressants? Nous verrons ça dans l’avenir et je suivrai les éventuelles nouveautés, avec intérêt et curiosité.

Mais pourquoi tant d’animosité, me direz-vous?
Le mot est bien trop fort. Je n’ai ni haine, ni désir de nuire. Ce sont surtout des craintes au sujet d’un fonctionnement aux règles abusives, qui font en sorte de maintenir enfermé les utilisateurs.

toutout
Je grogne parce que je le juge nécessaire.

Mais l’arrivée de SteamOS n’a pas que des inconvénients. Comme beaucoup de personnes au sein de la communauté, j’espère que ce sera l’occasion pour que les constructeurs ATI et NVidia, considèrent enfin leurs clients. La situation est légèrement meilleure pour les GPUs Nvidia (mon GPU GTX460 ne fonctionne pas trop mal), même si on assiste à la mascarade Optimus (Nvidia avait dit qu’il était impossible de porter Optimus sous Linux, la communauté l’a fait sans aucunes specs). Et je ne parle pas d’ATI et de leurs drivers à la traine, à chaque mise à jour de X.
J’ai aussi beaucoup d’espoir en les drivers libres, que ce soient Nouveau ou Radeon (qui me permettent d’utiliser ma “vieille” HD3450). Ils ne cessent de s’améliorer au fil des mois et je suis certain que nous aurons bientôt une alternative solide aux drivers privateurs, grâce à “l’échange” de code.

Cette liberté si importante à nos yeux, nous oblige de laisser le choix aux utilisateurs, souhaitant ou non utiliser Steam (ou SteamOS). Cependant, prenons conscience des abus et des règlements totalitaires. Malgré les apparences, il faut être lucide et comprendre que Steam vous impose des conditions que vous acceptez implicitement, via la validation de l’accord de licence. Installer et utiliser Steam, sur un OS qui prône la liberté et le contrôle est peut-être contradictoire, nécessaire et utile pour certains, contraire pour d’autres.

Dans tous les cas, je ne doute pas que vous fassiez le bon choix, votre choix. Un choix réfléchi et approprié à vos besoins, en ayant connaissance des avantages et inconvénients.

Dépréciation de /etc/sysctl.conf

À partir de la version 207, systemd n’appliquera plus les paramètres de /etc/sysctl.conf: il n’appliquera que ceux de /etc/sysctl.d/*. Étant donné que les paramètres de notre /etc/sysctl.conf fourni par procps-ng sont de toutes manières devenus par défaut ceux du noyau, nous (NdT: développeurs d’Arch) avons décidé de déprécier ce fichier.

Durant la mise à niveau de procps-ng-3.3.8-3, vous serez invité à déplacer les changements que vous auriez apporté à /etc/sysctl.conf dans /etc/sysctl.d/. La manière la plus simple consiste à exécuter:

pacman -Syu
mv /etc/sysctl.conf.pacsave /etc/sysctl.d/99-sysctl.conf

Si vous n’avez jamais personnalisé /etc/sysctl.conf, vous n’avez rien à faire.

Article original

colorez votre shell

Il y a maintenant un peu plus d’un an, Teo Mrnjavac, membre de la communauté KDE et un des auteurs d’Amarok, avait écrit un article intéressant sur des utilitaires en couleur pour le terminal.

Cet article va dans le même sens car pour moi, un shell personnalisé est tout de suite plus attrayant et l’utilisation de couleurs, lorsqu’elles le sont à bon escient, y contribue. L’autre aspect important et l’interactivité que permet un shell bien configuré, par le biais de la complétion des commandes par exemple. À ce titre, je ne saurais plus me passer de zsh (voir cet ancien article notamment).

Le shell

Un shell bien personnalisé, ça commence par un PS1 (invite de commande) agréable. Chez moi, il ressemble à ça:

C’est donc un classique utilisateur@hôte avec le chemin du dossier courant. Ce dernier se trouve d’ailleurs raccourci si nécessaire:

Il change également de couleur en fonction des permissions du dossier courant:

Un autre point sympa: si je passe en root, cela se remarque tout de suite:

A noter également que la couleur du nom de l’ĥôte change en fonction de l’hôte. Ainsi, ça permet de savoir encore plus facilement sur quelle machine on se trouve (et éviter d’éteindre par mégarde un serveur plutôt que son poste de travail par exemple…). Merci à Alex à qui j’ai piqué la configuration de base il y a quelques années.

Mon shell intègre également un autre prompt, situé à l’extrême droite, lorsque le dossier courant est un dépôt git ou mercurial (je n’utilise pas svn, bazaar ou autre donc n’en tiens pas compte). Il permet de visualiser en un coup d’oeil l’état du dépôt: la branche courante, le nombre de nouveaux fichiers, si des changements ont été apportés, s’ils ont été commités, s’il y a besoin de compléter un merge, etc.

Pour plus d’information à ce sujet, je vous laisse vous référez à cet article que j’ai publié il y a plus d’un an en arrière.

Cela rend tout de suite le terminal plus agréable un prompt du genre, pas vrai? Oui mais, il y a moyen de faire encore mieux. Je ne vais pas parler ici de toutes les astuces que l’on peut utiliser via le ~/.zshrc car cela serait d’une part trop long et que ce n’est pas le sujet de cet article. En revanche, puisque cet article traite de couleur et de shell, voici une astuce que je trouve fort sympa. Peut-être que vous connaissez le shell fish (friendly interactive shell)? C’est un shell qui possède beaucoup de fonctionnalités très intéressantes (complétion, suggestions basées sur l’historique, utilisation intensive de couleurs, etc.), la plupart activée par défaut. Exemple de complétion dans un dépôt git:

On peut remarquer sur cette dernière image une chose intéressante: les commandes valides sont en bleu alors que les commandes non-valides sont en rouge. On voit également que les chaînes sont colorées en jaune. Plutôt sympa non? Personnellement, j’adore! Comme je n’utilise pas le shell fish mais zsh, j’utilise un plugin dénommé zsh-syntax-highlighting qui se charge d’effectuer le même rendu au niveau des couleurs pour zsh. Exemple de rendu (les exécutables valides étant ici en vert):

À propos de commandes valides ou non, j’ai également une autre personnalisation de mon prompt que je trouve intéressante: l’indication du code de sortie d’une commande lorsqu’elle retourne sur une erreur. Exemple:

Avec tout ça, on se retrouve déjà avec quelque chose d’intéressant. Cependant, à côté du shell à proprement parler, il y a également les utilitaires en ligne de commande que l’on utilise qui peuvent être paramétrés ou même remplacés par des équivalents plus colorés. Je vais donc tâcher d’en faire ici une liste non exhaustive.

ccze

CCZE permet de colorer des fichiers de logs. J’utilise cette fonction dans mon ~/.zshrc afin quand je dois débloquer une situation en consultant des logs.

1
2
3
logtail () {
            tail -f $1 | ccze -A
}

Ce qui donne quelque chose du genre:

Merci à Frank qui m’avait fourni l’astuce.

ack

ack est une alternative à grep(1), écrit en Perl, qui se trouve être particulièrement pratique pour trouver ce que l’on cherche parmi des fichiers source par exemple:

git et mercurial

Il ne s’agit pas ici d’alternative mais simplement de configurer ces gestionnaires de version afin que le retour de leur commandes respectives soit un peu plus coloré. Pour git, j’ai ceci dans mon ~/.gitconfig:

1
2
3
4
5
6
[color]
        branch = auto
        diff = auto
        interactive = auto
        status = auto
        ui = auto

Et ceci dans mon ~/.hgrc pour mercurial:

1
2
3
4
5
6
7
8
9
[extensions]
color                   =

[color]
status.modified = blue bold
status.added    = green
status.removed  = red
status.unknown  = black bold
status.deleted  = red bold

C’est aussi tout de suite plus agréable:

Si vous n’utilisez ni git ni mercurial et que votre gestionnaire de version ne supporte pas les couleurs (svn par exemple), vous pouvez toujours vous rabattre sur colordiff afin d’avoir au moins un diff(1) en couleur.

htop

On tombe cette fois dans un grand classique. htop est un bon remplaçant à top(1) (même si la qualité de son code source laisse un peu à désirer…):

cdu

Vous connaissez certainement du(1), cet utilitaire qui donne une estimation de l’utilisation de l’espace disque occupé par le dossier donné en argument? cdu en est une alternative en couleur:

C’est pratique pour un coup d’oeil rapide bien que je trouve ncdu, une version ncurse (sans couleurs) de du(1), plus pratique à cet égard.

dfc

C’est presque un peu inutile que je le présente sur ce blog mais dfc fait selon moi une excellente alternative à df(1) (qui se charge de plus que simplement ajouter de la couleur d’ailleurs):

Si l’outil ne vous plait pas, il existe des alternatives telles que pydf ou cdf.

freec

Frank, que j’ai déjà cité dans cet article, a écrit un programme alternatif à free(1): freec.

Autres

Je trouve la liste déjà relativement exhaustive mais il en existe encore d’autres.

  • ls++: La plupart des gens activent les couleurs pour la commande ls(1) via LS_COLORS. Personnellement, cela me suffit mais ceux qui en veulent plus peuvent passer par ce wrapper Perl.
  • colorgcc: Qui se révèle être un bon palliatif à gcc pour les utilisateurs habitués à compiler avec clang.
  • colormake: Pour colorer make(1).
  • vimpager ou encore une configuration de most ou less pour les pages de manuel.

Je suis sûr que vous saurez la compléter par des utilitaires que vous appréciez aussi. ;)

/dev/pts et glibc 2.18

Depuis la mise à jour de glibc vers la version 2.18, si /dev/pts/ est monté avec les mauvaises permissions, la création de console virtuelles se trouve bloquée (terminaux entre autre).

Ceci ne devrait toucher que ceux qui ont une ligne /dev/pts dans leur /etc/fstab et il suffit de supprimer cette ligne (/dev/pts est monté en auto par systemd) pour revenir à la normale.

arch-dev-public | Warning: remove /dev/pts from /etc/fstab – glibc-2.18 update

Netkit, UML et Qemu sont dans un bateau Archlinux ... qui tombent à l'eau ?

Hi,

Boussole
Cet article est un résumé de mon expérience de la veille, cela me permettra de savoir ce que j'ai testé et ce qui n'a pas fonctionné mais j'espère que cela vous fera découvrir des solutions.
Un article riche en lien et en expérience, j'espère que cela vous sera utile.

Le besoin :

Comme vous le savez maintenant, je suis en train de configurer mon serveur dedié Online aux petits ognons (nouveaux).
Pour ce faire, je me suis monté une petite infrastructure passionnante.
Pour être un peu plus proche de ma configuration réelle, je m'étais dit qu'il me fallait un système qui me permettrait de simuler mes Iptables et le contexte réseau autour de mon serveur.
J'avais pensé utiliser Virtualbox ou kvm mais la procédure d'installation me paraissait longue et lourde (installation de l'hyperviseur, génération d'un fichier disque dur, installation de l'os virtualisé sur le disque dur) pour un si petit besoin. ...
Par pur fainéantise et commodité, je souhaitais un logiciel prêt à l'emploi.

Netkit : Une solution clé en main intéressante pour simuler des labos virtuels

Netkit était idéal car je n'avais qu'à installer, indiquer le nombre de VM et lancer la vm.
Si vous ne connaissez pas ce projet, je vous invite à consulter les ressources en-dessous pour vous faire une petite idée.
Je dégaine mon yaourt. Un paquet existe. Je lance la compile ...
Crack pas assez de place dans tmp... Faudra que je me penche sur ce problème déjà rencontré, mais je pare au plus pressé, je change de cheval.

UML (UserMode Linux) : Un trousse à outil pour virtualiser une machine

Je prends l’élément de base de netkit, je tombe sur UML.
Wikipedia me dit que c'est nul mais je lis quelques articles et cela semble prometteur et customisable.
Je compile le paquet, je télécharge tout comme il faut, paf ça ne marche pas, cela boucle au démarrage, j'ai dû louper une étape.

QEMU :

Le temps file et les solutions défilent, je vais donc revenir aux vrais valeurs, je réinstalle vite fait un kvm-qemu.
Le paquet a changé de nom depuis mon dernier article, je vais donc feuilleter le wiki fr Archlinux mais il n'est pas à jour.
Peut être que les paquets évoluent trop vite pour notre wiki francophone ...
Il faudra que je m'inscrive pour modifier le wiki.

Comme dit plus haut, je ne voulais pas me farcir l'installation d'un OS juste pour une VM, je pensais donc réutiliser l'image disque Debian téléchargée sur le site UML..
L'image disque n'est plus bootable, je télécharge le kernel mais cela ne marche pas mieux, décidément je suis maudit, je n'ai pas envie de chercher plus longtemps.

Le renoncement ...

On revient à la base de la base, je télécharge une image netinst de Debian et je suis parti.
Tout marche comme il faut, out of box.
Youpii, enfin.
Un petit bémol, la solution "réseau privé" fournie par Qemu ne me convient pas car la machine n'est pas dans le même réseau que ma machine réelle, je devrais donc utiliser des redirections pour tester mon firewall.
Or, quand je teste des règles de pare-feu, il vaut mieux avoir une architecture simple sans redirection foireuse par dessus.
Dans mon optique de réutilisation et de gain de temps, qui a été une pure réussite jusqu'à présent, j'essaye de créer une interface virtuelle et de l'ajouter à mon pont à la mode lxc.
Après quelques incompréhensions, je tombe sur l'explication de lxc sur le réseau veth..
Je me dis qu'il faut juste prendre le numéro de process de mon kvm pour que cela fonctionne mais non cela aurait été trop simple, cela ne fonctionne pas.
J'essaye la solution simple du Wiki archlinuxfr : la création d'une interface virtuelle.
Bien entendu, le paquet uml_utilities a disparu ce qui n'arrange pas mes affaires.
Je me rabats sur la solution openvpn mais je l'abandonne car je peux utiliser la fonction dédiée dans Iproutes2.
Il faudra vraiment que je m'inscrive pour apporter ma pierre à l'édifice Wiki Archlinux.

La partie utile :

#Installation de Qemu
yaourt -S qemu
#Creation du disque dur
qemu-img create debian.raw -f raw 4G
#Installation de l'os virtuel sur le disque virtuel
qemu-system-x86_64 -enable-kvm -m 512 -k fr -drive file=debian.raw,if=virtio,media=disk -usb -usbdevice tablet -cdrom votre_iso.iso -boot d
#Creation de l'interface virtuel
sudo ip tuntap add dev tap1 mode tap
#On monte l'interface
sudo ip link set tap1 up

On l'ajoute au pont (pré-requis la configuration du pont cf : mon article lxc)

brctl addif br0 tun1
#On boot sur le système tout beau :
qemu-system-x86_64 -enable-kvm -m 512 -k fr -drive file=debian-7-amd64.raw,if=virtio,media=disk -usb -usbdevice tablet -net nic -net tap,ifname=tap1,script=no --curses

L'option : curses permet de ne pas ouvrir une nouvelle fenêtre et de n'afficher qu'une fenêtre console, cela permet d'économiser des ressources.
Pour ceux qui ne veulent pas du tout de sortie console, il y a l'option nographic.

Et voilà, plus le temps manque plus on en perds à chercher quelque chose qui fonctionne.
J'arriverai même à penser qu'avoir une distribution rolling release n'est peut être pas l'idéal pour la documentation de la communauté.

                           Au plaisir !!!

Ressources :

Netkit : Un pdf intérressant , Quelques exemples à picorer
UML : Tutoriel pas à pas UML Utilisation d'UML pour monter des labos Le wiki d'Ubuntu
Qemu : Présentation détaillée de Qemu dans un contexte pédagogique L'architecture réseau de Qemu

PHP 5.5 disponible dans le dépôt [extra]

PHP 5.5 est enfin disponible dans notre dépôt [extra]. Le guide de migration comprend des informations sur les changements depuis la version 5.4, une liste détaillée peut être trouvée dans le Changelog de PHP.

Le paquet APC sera remplacé par APCu. APCu prévoit seulement la mise en cache des données de l’utilisateur. Pour le cache opcode il faut utiliser la nouvelle extension opcache. Comme alternative, nous proposons une version de développement de XCache qui comprend à la fois opcode et le cache des données utilisateur.

La plupart des applications s’exécuteront sans modification, mais attention aux avertissements de dépréciation remplissant vos fichiers journaux.

Article original

Antergos : l’autre “Archlinux” pour les nuls …

Cinnarch n’est plus !!! En lieu et place, la distribution est devenue Antergos.

Basée sur Archlinux (en direct, à l’inverse de Manjaro qui a plus ou moins un mois de retard par rapport à Archlinux) et Gnome 3.8 (bien que Cinnamon, XFCE ou encore Razorqt soient disponibles sur l’iso d’installation), Antergos est une distribution Gnu/Linux de type “rolling release”. Cela signifie que vous n’avez pas à vous soucier des mises-à-jour majeures (nouvelle release) comme pour Ubuntu, fedora, etc.select_desktop

Avec une distribution de type “rolling release”, vous aurez touours les dernières mises-à-jour. Vous devez juste mettre à jour régulièrement votre système : tout ce dont vous avez besoin sera téléchargé pour vous.

Antergos est fournit avec PacmanXG (4.14.12 beta) qui vous permet d’effectuer à peu près toutes les tâches d’administration : synchro des mirroirs, mise à jour du système, upgrade des packet AUR, installer des applis, trouver les 3 mirroirs les + rapides, trouver les paquets “orphelins”, etc.

Seul petit truc “étrange” : le navigateur par défaut proposé à l’install est … Chromium.

Pour l’installation, vous avez la possibilité de passer par un installateur “CLI” (en console assisté) ou un installeur GUI (graphique) qui ressemble trait pour trait à celui d’Ubuntu…

Installer-24618f80dc64b7c0

Vous pourrez télécharger l’iso d’Antargos sur le site officiel : http://antergos.com/try-it/

Vous pourrez également télécharger l’iso directement par bittorrent sur freetorrent.fr : http://www.freetorrent.fr/index.php?page=torrent-details&id=7d6ded5a9f676c265da0d261787e39d9c0141f30

… ou sur un nouveau projet en bêta test (XBTT php front-end) : http://piratix.mumbly58.net

Cet article Antergos : l’autre “Archlinux” pour les nuls … est apparu en premier sur mumbly58.fr.

La mise à jour de TeXLive 2013 nécessite une intervention manuelle

Les paquets TeXLive 2013 seront bientôt disponibles dans [extra]: les utilisateurs qui mettent à jour TeXLive 2012 rencontreront probablement le message d’erreur suivant lors de l’utilisation d’un moteur TeX (comme latex, xelatex, luatex):

(Fatal format file error; I'm stymied)

Vous pouvez identifier une telle situation dans la sortie de pacman durant l’installation:

>>> texlive: recreating all formats...
/usr/bin/fmtutil: line 395: /usr/share/texmf/texconfig/tcfmgr: No such file or directory
fmtutil: config file `fmtutil.cnf' not found.
done.

Pour résoudre cela, la solution la plus simple si vous n’avez fait aucune modification aux fichiers dans /etc/texmf, est d’écraser les fichiers de configuration avec les fichiers .pacnew installés par pacman. L’utilitaire pacdiff peut être utilisé à cette fin.

Après fusion des fichiers de configuration, lancer la commande suivante:

fmtutil-sys --all > /dev/null

Elle ne devrait pas renvoyer de messages d’erreur: s’il vous plaît, ouvrez un rapport de bug si vous voyez des problèmes.

Supprimer TeXLive 2012 avant d’installer TeXLive 2013 peut aussi contourner le problème.

Article original

GRUB a dorénavant un paquet unifié

Récemment, grub-bios, grub-common, grub-efi, … ont été remplacés par le paquet grub.

Ce paquet est en conflit avec grub-legacy, donc si vous utilisez encore grub 0.9x, il vous faudra soit supprimer grub 2.x, soit passer à grub 2.x.

Dans tous les cas, pensez à lire les messages de pacman pendant la mise à jour (notamment les informations à propos de fichiers *.pac*), ainsi qu’à vérifier la configuration de grub avant de redémarrer.

Le Libre: un combat au quotidien!

Salut les gars,

Avant de publier cet article, j’en avais déjà deux autres dans la marmite (et je voulais aussi faire une grosse mise à jour du design avant), mais les récents évènements m’ont poussé à écrire celui-ci et à le publier. Effectivement, je ne souhaitais pas attendre plus longtemps, pour dénoncer ces agissements. Par ailleurs, c’est un tremplin fantastique, moi qui voulais écrire un article expliquant mon abandon de Google.
L’objectif de cet article n’est pas de vous dire, ce que vous devez faire. C’est un texte qui décrit une partie des réglages, que j’ai effectué, tel un retour personnel. Ce n’est en aucun cas une admonestation…

L’heure du constat

Je pense que vous êtes assez au courant de l’actualité “informatique” et Internet. En effet, un ancien agent de la NSA a dévoilé que les communications/données qui transitent sur le web, sont espionnées, épluchées et analysées par le gouvernement américain (cf la version longue).
Celà ne m’étonne absolument pas. Les gens utilisent Facebook, sans même se rendre compte des abus et des risques que cela peut engendrer. Savez-vous qui est de mèche avec ce programme “top-secret”, appelé PRISM? Apple, Google, Facebook, Yahoo et Microsoft. Bref, tous les géants du Web/informatique.

PRISM
Voici le symbole de la honte.

On pourrait argumenter sur le fait qu’être espionné, n’est pas si grave quand on a rien à se reprocher et que cela évite des actes malveillants, mais quelles sont les limites et comment éviter les débordements? Cette nouvelle rejoint mes nombreux tweets, où j’ai expliqué la volonté de me séparer au plus vite des services obscurs, qui sur-peuplent le Web. Cet article sera donc la suite logique de ce que j’ai dit sur Twitter (et de mes mails pour certains).

Quand j’ai eu Internet, il n’y a d’ailleurs pas si longtemps, un monde immense s’est ouvert à moi et je me suis inscrit sur un nombre conséquent de sites. Je n’ai pas fait attention aux règles imposées. En fait, c’était comme si l’user (donc moi) signait un “pacte avec le Diable”. Dorénavant, je m’emploie à clôturer mes comptes sur tous ces sites. La tâche est difficile mais j’avance, petit à petit.
Pour le moment, j’ai définitivement fermé mes comptes Facebook (déjà désactivé depuis plus de deux ans), Posterous, Viadeo, Paypal et je me suis séparé de plusieurs services Google (Analytics, moteur de recherches, DNS). Ces suppressions ont un effet collatéral, elles améliorent le référencement. En faisant une recherche avec mes coordonnées, des résultats disparaissent, ce qui m’arrange grandement.

Je m’impose une politique drastique et rigoureuse, à savoir: je supprime les comptes de sites qui ne respectent pas la vie privée et qui n’applique pas une politique de transparence, envers les users.

google
Est-ce assez clair?

Se débarrasser de ce que l’on a utilisé au quotidien pendant plusieurs années, n’est pas facile. C’est d’ailleurs un des effets pervers de cette situation. Dans le cas des outils Google, je trouve cela assez dommage car on nous propose des outils assez fiables et efficaces. Mais, c’est au niveau de la gestion de ces données et des informations collectées, que se trouve la racine du problème. Il y a une politique obscure où finalement, on ne sait pas vraiment ce qui se passe (ventes d’infos à d’autres sites, statistiques de recherches, profils d’utilisateurs, pub ciblée).
Si vous trouvez mon discours trop “réac” et dénué de sens, je vous invite à télécharger Google Chrome et à le lancer. On a l’impression d’utiliser un client de synchronisation vers le Cloud Google. Et je ne parle pas de l’historique de recherche, associé au compte Google, qui est activé par défaut. Une personne avec qui j’ai communiqué récemment, m’a confirmé ce sentiment d’espionnage omniprésent.

Comment agir?

Actuellement, je dispose toujours de mon adresse GMail car je n’ai pas encore totalement migré, mais ce n’est plus mon adresse mail principale. Je suis passé sur Mailoo.org qui me fournit une “nouvelle” adresse et j’en ai une seconde pour mes travaux/développements, chez Legtux.org. Mailoo se base sur une architecture 100% logiciels libres et aucune information personnelle n’est requise. Il y a aussi Sud-Ouest.org qui semble fournir un service de qualité, avec un filtre spam très efficace, d’après leurs graphiques.

ddg
Un excellent moteur de recherche qui respecte ma vie privée.

Pour effectuer mes recherches, désormais j’utilise DuckDuckGo et j’en suis très content. Il y a quelques mois, je l’avais essayé sans être convaincu. Je me suis donc fait violence et après un certain temps d’adaptation, je dois reconnaître que c’est un excellent outil. En plus de ne pas m’espionner, j’obtiens des résultats assez cohérents et adaptés à mes recherches.
Quand bien même je ne recherche pas de termes “trashs”, je ne me sens pas épié et surveillé. Je peux aussi personnaliser l’interface, la langue, les couleurs. Bref, l’essayer, c’est l’adopter.

Je n’ai jamais été concerné par le point suivant, mais je conseille fortement d’utiliser des navigateurs Open-Source comme Firefox ou Midori. Ainsi, on est à l’abri de mauvaises surprises, qui pourraient être occultées ou dissimulées, dans les produits closed-source. Et puis, sachant que je suis un défenseur du Libre, je ne peux pas imaginer utiliser autre chose, qui ne soit pas ouvert.

Un bon moyen de garder un semblant d’anonymat sur Internet, c’est aussi de gérer ses cookies, afin de ne pas accepter n’importe quel cookie. Dans mon cas, j’ai totalement désactivé les cookies et j’ai ajouté quelques exceptions comme pour Archlinux et d’autres sites. Pour être sûr, je les vérifie de temps en temps. Voici un exemple pour GMail: je place en whitelist les URLs suivantes:

accounts.google.com
mail.google.com

Ainsi, je ne suis pas pollué par les éventuels cookies (tiers on non) que je pourrais recevoir, si j’avais la maladresse de faire un tour sur google.com. Si vous trouvez cette méthode trop rude, vous pouvez toujours refuser les cookies tiers, ou encore les supprimer automatiquement, dès que vous fermez votre navigateur.

cookies
Si seulement ces cookies étaient bons...

Par ailleurs, je vous mets en garde par rapport au Cloud (oui, c’est en plein essor). Ne donnez PAS vos données à des organismes, qui sont inaptes à les sécuriser et à les protéger. C’est un risque immense que vous prenez, en utilisant des solutions qui ne jouent pas la carte de la transparence. Faites EXTRÈMEMENT attention et soyez VIGILANT! Renseignez-vous avant de vous inscrire.

L’essence du problème se situe aussi à la base du système que nous utilisons. Utiliser des OS privateurs, sur lesquels nous avons aucun contrôle, fait de nous des otages. Nous sommes à la merci de grands organismes, qui n’hésite pas à bafouer nos droits et à divulguer des informations uniques.
Préférez des OS Libres tels que GNU/Linux (Debian, Archlinux, Mageia) ou BSD, que ce soit sur vos PC ou vos smartphones. Je suis plus que partagé sur Android, car même si c’est un projet Open-Source, il appartient désormais à Google. J’aurai tendance à recommander FirefoxOS plutôt.

debian
Debian: une distribution exemplaire.

Pour les DNS, je suis revenu sur ceux de mon FAI Orange. Après de nombreux tests, il s’est avéré qu’ils étaient les plus rapides. Je ne les utilisais plus depuis 2 ans, car parfois je devais rafraichir plusieurs fois la page internet pour qu’elle s’affiche. Ce problème n’existe plus, apparemment.

Je ne parlerai pas de Tor, dans cet article. Je ne le connais pas assez pour pouvoir donner un avis, qui soit constructif.

 On avance…

Je dois encore penser à chiffrer mes emails avec GnuPG, mais avant je dois réfléchir à la mise en œuvre par rapport, à tous mes contacts. Je prévoie de me séparer totalement de Google, dès que possible (avant la fin de l’année) mais il me reste du travail.
Pour celles et ceux qui cherchent des alternatives fiables, voici une petite liste bien utile.

À l’heure où j’écris ces lignes, il y a justement un CDANSL’AIR sur France5, consacré à ce sujet. On y voit FDN et la Quadrature du Net qui sont les seuls, à dire la vérité. J’ai beaucoup de respect pour eux. Lors d’un reportage, l’émission a parlé de Mozilla qui est un acteur majeur du Libre, sans mentionner une seule fois que Firefox existe. Je trouve ça bien dommage… Cependant, les journalistes jouent énormément sur le sentiment de peur, en faisant plus ou moins comprendre que c’est inéluctable, alors que des réflexes relativement simples, permettent de minimiser les risques de façon significative.

open-source
L'Open-Source au service des libertés.

Avec ce titre “Le Libre: un combat au quotidien!”, j’ai essayé de montrer qu’il est possible d’éviter les inconvénients du Web, en se basant sur des logiciels Libres. Ces derniers constituent une manière de protéger les individus, contre les pratiques mafieuses et insidieuses de grands groupes, qui n’ont aucune éthique.

OUI, c’est un combat au quotidien, pour éviter d’utiliser les services grands publics dans un monde, où lorsque l’on ne dispose pas d’un compte Facebook, on est regardé de travers. OUI, c’est un combat au quotidien, quand des majors s’enrichissent grâce aux statistiques qui sont collectées et engrangées, à l’insu des personnes. OUI, c’est un combat au quotidien, quand des gouvernements nous espionnent, n’hésitant pas à analyser les données, de millions d’utilisateurs en toute impunité. OUI, c’est un combat au quotidien, pour essayer de se défendre, en évitant que l’espionnage devienne une norme.

Un Libriste passionné aka Ypnose

EDIT: Pensez à faire un don, pour la libération du cahier Debian
EDIT #2: La libération du cahier de l’Admin Debian est un grand succès. La somme maximale de 25000€ a été atteinte (25518 €). Je suis super content, pour les créateurs de ce projet.

Le déplacement des binaires dans /usr/bin nécessite une intervention lors de la mise à jour

Lors de votre prochaine mise à jour, vous obtiendrez un message d’erreur du type:

erreur: la validation de la transaction a échoué (conflit de fichiers)
filesystem: /bin est déjà présent dans le système de fichiers
filesystem: /sbin est déjà présent dans le système de fichiers
filesystem: /usr/sbin est déjà présent dans le système de fichiers
Des erreurs se sont produites, aucun paquet n'a été mis à jour.

La mise à jour fusionne tous les binaires dans un répertoire /usr/bin unifié. Cette étape supprime une distinction dénuée de sens pour les systèmes Arch et simplifie la maintenance des paquets pour l’équipe de développement. Voyez ce message pour plus d’informations sur les raisons de ce changement.

Les instructions suivantes vous assureront une mise à jour sans danger:

1) Occupez-vous de tout paquet non-officiel avec des fichiers dans /bin, /sbin ou /usr/sbin.
La liste peut être obtenus en lançant :

$ pacman -Qqo /bin /sbin /usr/sbin | pacman -Qm -

Vérifiez aussi les paquets installés à partir de dépôts non-officiels à l’aide de:

$ paclist <repo> | awk ' { print $1 } ' | pacman -Ql - | grep ' /s\?bin/\| /usr/sbin/'

NdlR: par exemple, si vous utilisez le dépôt archlinuxfr:paclist archlinuxfr | awk ' { print $1 } ' | pacman -Ql - | grep ' /s\?bin/\| /usr/sbin/'.

2) Assurez-vous que tous les paquets dans IgnorePkg ou IgnoreGroup n’ont pas de fichiers dans /bin, /sbin, ou /usr/sbin. Sinon, il faudra les mettre à jour avant de continuer.

3) Si vous avez des fichiers dans /bin, /sbin ou /usr/sbin n’appartenant à aucun paquet, vous devez les déplacer vers /usr/bin. Trouvez cette liste en utilisant :

$ find /bin /sbin /usr/sbin -exec pacman -Qo -- {} + >/dev/null

4) S’assurer que toutes les partitions sont montées si vous utilisez autofs. Ils ne pourront pas être montées automatiquement au besoin pendant la mise à jour.

5) Mettez à jour votre système.

Avant d’effectuer cette mise à jour, vous pouvez vous assurer de disposer d’un deuxième terminal ouvert avec des privilèges root dans le cas improbable d’une urgence, en particulier pour une mise à jour via ssh.

# pacman -Syu --ignore filesystem,bash
# pacman -S bash
# pacman -Su

Topic sur le forum pour éventuellement plus de précisions

Article original