OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet par la racine http://owni.fr/2012/07/05/internet-par-la-racine/ http://owni.fr/2012/07/05/internet-par-la-racine/#comments Thu, 05 Jul 2012 14:33:30 +0000 Andréa Fradin http://owni.fr/?p=115344 Au commencement, il y avait la “racine”. Quiconque tente de percer à jour le fonctionnement d’Internet se retrouve nez-à-nez avec ce drôle de précepte. Sans bien en cerner le sens. Ainsi, votre serviteur, qui face à des articles titrant sur “la racine d’Internet divise les autorités américaines”, “la Chine veut sa propre racine Internet”, est restée circonspecte : c’est quoi ce bulbe magique générateur de réseau ? Et pourquoi tout le monde s’agite pour le contrôler ? Jardinage réticulaire avec quelques experts du Net.

Dommage, la racine n'est pas un gros modem caché sous la Silicon Valley (South Park, "Over Logging", saison 12 épisode 6)

Le bulbe magique

Premier apprentissage : la racine du net n’est pas un oignon. Ni un modem géant caché au fin fond de la Silicon Valley par le gouvernement américain. Cruelle désillusion pour tous les fans de South Park, la réalité est autrement plus prosaïque : la racine est avant tout un fichier. L’un des pères d’Internet en France, Louis Pouzin, nous explique :

C’est un fichier de données. On peut le voir sur écran ou l’imprimer.

Et de poursuivre : “c’est la table des matières des annuaires de TLD”.

C’est là que ça se corse : les TLD, ou “top level domains” (“domaines de premier niveau”) sont tous les “.quelquechose” : .com, .net, .info ou, pour les pays, en .fr, .uk, etc. On compte aujourd’hui plus de 300 extensions. Tous les sites Internet sont regroupés dans un annuaire qui porte le nom de leur extension : “par exemple, l’annuaire .com explique Louis Pouzin. Il existe donc autant d’annuaires que de TLD.”

Et la racine dans tout ça ? Elle a en mémoire la liste de tous les TLD et s’occupe de pointer vers les différents annuaires. “C’est un système d’aiguillage”, ajoute Stéphane Bortzmeyer, ingénieur à l’Afnic, l’organisme qui gère notamment le .fr. “Quand on lui demande un accès au site owni.fr, elle renvoie à l’Afnic qui gère le .fr” Et ainsi de suite pour les sites du monde entier : la racine est la conseillère d’orientation du Net.

La racine est morte, vive Internet !

Évidemment, le fichier seul ne peut pas s’exécuter comme ça, à l’aide de ses petits bras. Parler de racine, c’est aussi parler de “serveurs racine”. Des machines disséminées dans le monde entier et sur lesquelles est copié le fameux bottin de l’Internet. On parle souvent de 13 serveurs racine, mais la réalité est plus complexe. Selon Stéphane Borztmeyer : “il y a une centaine de sites physiques qui gèrent les serveurs racine.”

Concrètement, ces serveurs ne ressemblent pas à des bunkers ultra-sécurisés. A la manière de datacenters classiques, “il s’agit simplement de matériel encastré dans des racks [NDLA : sorte de casiers à matériel informatique]“, poursuit l’ingénieur de l’Afnic. La sécurité physique n’est pas le problème.” Le souci est plus au niveau logiciel. Et encore : si la racine venait à disparaître de la surface de la Terre, aucun cataclysme dévastateur n’en résulterait. Ni coupure nette, ni blackout, ni tsunami vengeur, rien, tout juste quelques défaillances !

“Il y aurait une perte de fonctionnalité, mais ce ne serait ni soudain, ni total ni catastrophique”, explique l’universitaire américain Milton Mueller, l’un des premiers à s’être intéressé à la racine et ses implications géopolitiques, dans son livre Ruling the root. “Le réseau se dégraderait petit à petit mais on peut y survivre” confirme Stéphane Bortzmeyer. Un anti-scénario catastrophe rendu possible par certains serveurs, les “serveurs de nom”, et leur capacité à retenir les indications données par la racine, explique Louis Pouzin :

Il existe des milliers de copies de la racine stockées dans des serveurs de noms et des ordinateurs d’utilisateurs. L’Internet pourrait continuer à fonctionner au moins une semaine, ce qui donne le temps de s’organiser pour réparer l’incident.

Ces serveurs de noms, que l’on retrouve par exemple chez les fournisseurs d’accès à Internet (Orange, Free et compagnie), ne demandent que rarement leur route aux serveurs de la racine. Le plus souvent, ils ne les contactent qu’au moment de leur mise en service : Internet n’est alors pour eux qu’un énorme brouillard de guerre. Impossible dans ces conditions de savoir à quoi renvoie owni.fr ou hippohippo.ytmnd.com. Le reste du temps, ils se souviennent au moins temporairement (en cache) des indications de la racine. Certains FAI ont même opté pour une solution plus définitive : ils copient le fichier racine dans leurs serveurs, afin d’éviter de passer par la racine, raconte encore Milton Mueller.

La racine, c’est l’Amérique

Ceci dit, ils ne contournent pas complètement la racine, puisqu’ils se contentent de copier son fichier, qui peut connaître des modifications au fil du temps. Pour rester à la page, et continuer d’orienter les internautes, des mises à jour seront alors nécessaires et le problème restera le même : in fine, il faudra s’en retourner vers la racine.

Un système hyper-concentré qui ne correspond pas tout à fait à l’image d’Épinal d’un Internet rhizomatique, parfaitement décentralisé, sans queue ni tête. Et qui peut poser problème : car derrière la racine, il y a des hommes. Et oui, malheureusement pour nous -ou heureusement, c’est selon-, la racine n’est pas une intelligence autonome venue d’un autre monde, des petits serveurs dans ses bagages, pour nous offrir Internet. La racine, c’est l’Amérique. Et selon Stéphane Bortzmeyer :

aucune modification du fichier racine ne se fait sans signature d’un fonctionnaire aux États-Unis.

Deux institutions, l’Icann et Verisign, s’occupent de la mise à jour de cette liste. “L’Icann accepte ou refuse l’enregistrement des TLD, et transmet sa décision au Département du Commerce (DOC). Verisign effectue l’enregistrement ou la radiation des TLD dans la racine sur ordre du DOC, et parfois du FBI”, détaille Louis Pouzin. La machine est 100% made in USA.

Même si son rouage le plus connu, l’Icann, est présenté comme une organisation indépendante, une “communauté” constituée de FAI, “d’intérêts commerciaux et à but non lucratif” ou bien encore de “représentants de plus de 100 gouvernements”. Il n’empêche : si l’Icann gère la racine, c’est uniquement parce que les États-Unis le lui permettent. “C’est une relation triangulaire, explique Milton Mueller à OWNI. L’Icann comme Verisign sont contrôlés par le biais de contrats les liant au Département du Commerce américain.” L’Icann vient d’ailleurs de renouveler l’accord qui la lie à l’administration américaine, obtenant ainsi le droit de poursuivre l’intendance de la racine pour les cinq à sept prochaines années.

One root to rule them all

Internet après la fin de Megaupload

Internet après la fin de Megaupload

La coupure de Megaupload a provoqué un torrent de réactions. Le problème n'est pas la disparition du site en lui-même. Il ...

Potentielle arme de destruction massive, la racine est le nouveau gros bouton rouge qui fait peur, sauf que seuls les Etats-Unis peuvent en disposer. S’ils décident de faire joujou avec, ils peuvent par exemple supprimer une extension. Hop ! Disparu le .com et tant pis pour les Google, Facebook et autres machines à cash. Plus probable, ils peuvent aussi faire sauter un nom de domaine : c’est ce qui s’est passé en janvier dernier, avec le site Megaupload, qui a été rayé de la carte Internet.

Ils peuvent aussi bloquer l’arrivée d’un nouveau .quelquechose ou au contraire, élargir la liste. C’est d’ailleurs l’opération dans laquelle s’est lancée l’Icann, qui planifie l’arrivée des .lol, .meme, .viking -et un autre gros millier de réjouissances-, dans le fichier racine. Le tout contre quelque monnaie sonnante et trébuchante : 185 000 dollars la demande d’une nouvelle extension, 25 000 par an pour la conserver. Car aujourd’hui pour les marques sur Internet, c’est un peu be dot or be square.

“Fort heureusement, jusqu’à présent, les États-Unis n’ont pas eu de gestion scandaleuse de la racine”, modère Stéphane Bortzmeyer, avant de concéder :

Sur Internet, c’est un peu l’équilibre de la terreur.

Un pouvoir constitué de fait, au fil de la création du réseau. Et qui, forcément, ne laisse pas indifférents les petits camarades. Avec en premier chef, la Chine. L’empire du milieu menace souvent les États-Unis de construire sa propre racine. Encore récemment, avec la publication d’un draft auprès de l’IETF (Internet Engineering Task Force, l’organisme en charge des standards Internet), qui a fait grand bruit dans les médias. Sur son blog, Stéphane Bortzmeyer tempère : ces drafts “peuvent être écrits par n’importe qui et sont publiés quasi-automatiquement”. Avant d’ajouter par téléphone :

Les Chinois menacent, mais rien n’est encore fait.

“Les réseaux chinois sont connectés à Internet. La seule différence avec d’autres pays, c’est que le système de filtrage est beaucoup plus violent.”

Pour l’ingénieur réseau de toute façon, il est quasiment impossible de bâtir une racine alternative. Pas d’un point de vue technique : “nombreux sont les étudiants qui l’ont fait pour impressionner leurs petits copains !” Le problème est plus au niveau pratique :

Il y a une forte motivation à garder la même racine. Sans cela, owni.fr pourrait donner un résultat différent selon la racine employée !

Pas hyper commode pour un réseau à prétention internationale. C’est ce qui explique l’inertie qui entoure l’Icann, Verisign et la racine originelle : si tout le monde veut contrôler la racine, personne n’a intérêt à faire bande à part. Ou dispose de moyens et d’influence suffisamment conséquents pour provoquer une migration d’une racine vers une autre. “Le problème, c’est le suivi : faire en sorte que les gens basculent en masse vers l’autre racine, en reconfigurant tous les serveurs de nom, explique encore Stéphane Bortzmeyer. Il faut une grande autorité morale, proposer mieux en termes de gouvernance, de technique…” Bref :

Pour avoir une nouvelle racine, il faut prouver qu’on est meilleur que les États-Unis.

Un peu comme sur les réseaux sociaux, où il faut démontrer que l’on vaut mieux que Facebook, afin de briser son effet d’entraînement colossal.

Racine contre rhizome

Les nouvelles root de l’Internet

Les nouvelles root de l’Internet

Le 12 janvier, l’organisme californien en charge de la gestion des noms de domaine de l’Internet a ouvert les extensions ...

Pour l’expert de l’Afnic, seul un comportement inacceptable des États-Unis serait susceptible de faire bouger les lignes. D’autres en revanche, refusent de se plier au statu quo. Et estiment que la mainmise des États-Unis sur la racine suffit seule à proposer une alternative. C’est notamment le cas de Louis Pouzin, et de son projet “Open Root”. Pour ce pionnier du réseau, “la légende de la racine unique est un dogme assené par l’ICANN depuis 1998.” Et ceux qui la diffusent sont “les partisans d’une situation de monopole.” “Ils n’en n’imaginent pas l’extinction”, confie-t-il à OWNI.

D’autres vont encore plus loin, en imaginant une racine en peer-to-peer. Distribuée à plusieurs endroits du réseau. Fin 2010, l’emblématique fondateur de The Pirate Bay et de FlattR, Peter Sunde, a laissé entendre sur Twitter que ce projet l’intéressait. Depuis, et malgré un intérêt médiatique important, plus de nouvelles. Par mail, il nous explique avoir “confié les rênes” de ce projet à d’autres, par manque de temps. Mais ajoute croire encore en la nécessité d’une alternative :

Soit nous prenons le contrôle [de la racine], de manière distribuée et démocratique, soit nous la remplaçons dans un futur proche.

Et de poursuivre :

Il est ironique de croire en un Internet décentralisé quand ce TOUT ce que nous construisons repose au final sur un système placé entre les mains d’une organisation, qui dépend d’une juridiction, d’un pays qui a des intérêts particuliers dans la façon dont se comportent les autres pays.

L’ingénieur suédois rêve d’une alternative distribuée, “avec des caches locaux”. Utopie irréalisable selon Stéphane Bortzmeyer : “Le problème principal est celui de l’unicité”, justifie-t-il. En clair, un nom de domaine ne renvoie qu’à un contenu, stocké sur des machines identifiées par une adresse IP : en France, en Allemagne ou à Tombouctou, Owni.fr ne renvoie qu’à owni.fr. C’est ce qu’on appelle le système DNS (Domain Name System). Et c’est ce qu’assure la racine (qu’il est plus correct d’appeler “racine DNS” que “racine d’Internet”), grâce à un système de responsabilité en cascade : la racine détient la liste des .com, .fr et compagnie, elle les assigne à des sites (wikipedia.org, google.com), qui ensuite, gèrent comme ils l’entendent leur nom de domaine (en créant par exemple fr.wikipedia.org). Pas de pagaille, pas de doublon, et Internet sera bien gardé.

“Il y a eu quelques tentatives de faire un système en peer-to-peer, qui restent surtout au stade de la recherche fondamentale aujourd’hui“, poursuit le Français. “Mais toutes font sauter l’unicité ! Le mec qui trouve comment faire sans racine obtient tout de suite le Prix Nobel !”

Non sens pour Peter Sunde, pour qui “des projets de racine alternative existent et rencontrent parfois un certain succès.” Après, “tout dépend ce qu’on entend par succès”, précise-t-il. Mais en leur qualité de “terrains d’essai”, Peter Sunde leur apporte un plein soutien. Et Louis Pouzin de rappeler :

Un certain nombre de projets, ou concepts, ont déjà été commencés, sans réussir à percer. Au fait, quels pouvoirs ont intérêt à favoriser une racine entièrement décentralisée ?


Bonus : comprendre Internet, c’est aussi dessiner des petits serveurs avec des yeux et des bérets. J’ai fait un petit quelque chose, arrangé par Loguy (qu’il en soit remercié), pour savoir ce qu’il se passe avec la racine quand un internaute va sur owni.fr. C’est pour vous <3


Illustrations : motivational poster par FradiFrad via christopher.woo (CC FlickR)

]]>
http://owni.fr/2012/07/05/internet-par-la-racine/feed/ 14
Hacker la vie (pour la changer) http://owni.fr/2012/06/17/hacker-la-vie-pour-la-changer/ http://owni.fr/2012/06/17/hacker-la-vie-pour-la-changer/#comments Sat, 16 Jun 2012 23:58:45 +0000 Ophelia Noor et Pierre Alonso http://owni.fr/?p=113679

La Cantine fait salle comble pour cette 3ème journée du festival hackers Pas Sage en Seine - (cc) Ophelia Noor

Elle était pleine à craquer La Cantine. Réactive, boute-en-train, concentrée selon les heures et les interventions. Du monde a défilé du matin au soir de la troisième journée de Pas Sage en Seine, festival de hackers et des internets polissons organisés depuis jeudi dans ce haut lieu parisien des cultures numériques. Sécurité, DIY, et aussi politique, un mot avec lequel les geeks sont souvent fâchés…

C’est en tout cas ce qu’affirme d’emblée Stéphane Bortzmeyer, ingénieur à l’Afnic (l’association en charge d’attribuer les noms de domaine en .fr) et dernièrement engagé dans l’équipe de campagne du Front de gauche :

Je vais parler de politique. La moitié d’entre vous va partir au bar boire des coups, je sais. Mais je vais vraiment parler de politique.

Et ruer dans les brancards : non, les responsables politiques ne sont pas des crétins ; non, le possible contournement technique de la loi ne l’invalide pas ; oui, la loi doit être la même pour tous quelques soient les compétences des uns et des autres ; non, la qualification technique ne suffit pas à faire de bonnes législations. Oui, Stéphane Bortzmeyer veut réhabiliter la politique, celle qu’il définit comme “ce qui concerne tous les choix fondamentaux de la vie de la cité”. Il a même une formule qui sonne comme un slogan : “Hacker la politique”.

Cliquer ici pour voir la vidéo.

Décentralisation

Ce n’est pas le frétillant porte-parole de La Quadrature du Net, Jérémy Zimmermann, qui le contredirait sur ce point:

L’heure est grave. Nous sommes face à un choix entre deux sociétés : l’une repose sur l’interconnexion des technologies pour surveiller et punir ; l’autre sur la décentralisation, le partage, la diversité et l’ouverture.

Jérémie Zimmermann (La Quadrature du Net) pendant sa conférence "Citoyenneté en ligne dans un monde post-ACTA" Sur l'écran, Richard Stallman, programmateur, militant, fondateur de la licence GNU et président de la Free Software Foundation - (cc) Ophelia Noor pour Owni

Autant dire qu’il ne penche pas pour la combinaison drones-biométrie-datamining-lois d’exception. Hacker la politique donc, en se mobilisant quand il le faut (contre Pipa, Sopa et Acta), tout en restant force de proposition, mantra de l’association de défense des libertés qu’il a cofondée, et abondamment défendue lors de son intervention.

Ouverture

Olivier Gendrin, artisan du Fab Lab récent ouvert à l’université de Cergy-Pontoise et baptisé Fac Lab, se reconnaîtrait sans doute dans la description d’une société fondée sur ces valeurs. Le Fac Lab, ce laboratoire où les outils – parfois de hautes technologies – et savoirs – parfois très pointus – sont mutualisés, a adopté sa sainte trinité : participer, documenter, partager. Tout en restant ouvert à tous :

Des juristes viennent, des ingénieurs et des physiciens aussi. Des professions qui ne se rencontrent pas sur le campus habituellement. Il y a des étudiants bien sûr, mais aussi des chômeurs, des mères de familles, des collégiens…

Cliquer ici pour voir la vidéo.

Un enthousiasme pour le Do It Yourself que certains questionnent. Le nom de Serge Humpich est revenu à deux reprises dans la journée de samedi. Une première fois, parce qu’il a été condamné après avoir rendu publique une faille dans les distributeurs automatiques de billet. Le tout en bidouillant une carte à puce. C’était il y a 12 ans.

Hier, Serge Humpich portrait un regard critique sur l’open hardware (le matériel libre), non sans provoquer quelques remous dans l’assemblée, certains lui reprochant de calquer les schémas de l’industrie sur le DIY.

Cliquer ici pour voir la vidéo.


Photographies par Ophelia Noor pour Owni
Interview de Serge Humpich préparée par Sabine Blanc, grande prêtresse du petit Minitel /-)

]]>
http://owni.fr/2012/06/17/hacker-la-vie-pour-la-changer/feed/ 15
IPv6: “préserver un Internet ouvert” http://owni.fr/2012/06/06/ipv6-essentiel-pour-linternet-ouvert/ http://owni.fr/2012/06/06/ipv6-essentiel-pour-linternet-ouvert/#comments Wed, 06 Jun 2012 17:20:24 +0000 Andréa Fradin http://owni.fr/?p=112733

Logo de l'IPV6 - (cc)source Internet Society http://www.worldipv6launch.org

Oyez ! Oyez, peuple de l’Internet ! Aujourd’hui, c’est la journée mondiale de l’IPv6 !

Derrière cet acronyme barbare se cache un changement important pour Internet : la création de nouvelles adresses IP. Tout objet connecté est associé à l’une de ces adresses, qui consiste aujourd’hui en une suite de chiffres de type 193.43.55.67. Cette association est indispensable, car elle permet aux objets de communiquer entre eux sur le réseau.

Mais avec l’expansion des usages et la multiplication des terminaux, notamment mobiles, le nombre d’objets connectés est près de dépasser le nombre d’adresses disponibles. Internet est au bord de la pénurie. “IPv6″ y remédie en proposant une nouvelle plage d’adresses, dont le format, beaucoup plus long (par exemple, 2001:0db8:0000:85a3:0000:0000:ac1f:8001), permet de multiplier les combinaisons disponibles. Et donc d’éviter la disette.

Soutenue par certains géants du web, Google, Facebook ou l’opérateur AT&T, l’initiative du jour est surtout une occasion d’officialiser le basculement en IPv6. Et d’inciter les sites à s’y mettre, en s’appuyant sur un coup médiatique appuyé.

Mais concrètement, en quoi consiste l’IPv6 ? Si en surface, vous ne devrez vous rendre compte de rien – enfin si tout se passe bien-, ce basculement a en réalité une incidence fondamentale sur le caractère ouvert du Net. Explications de Stéphane Bortzmeyer, architecte réseau à l’Afnic (association en charge d’attribuer les .fr), à destinations des geeks, et surtout des moins geeks /-)

Pourquoi on décide de passer à l’IPv6 ?

On a conçu IPv4 [l'ensemble des adresses IP que nous utilisons depuis les années 1980, NDLR] en imaginant qu’il n’y aurait qu’un ordinateur par service d’entreprises ou par département d’universités. On était loin de penser à l’ordinateur personnel !

Les 4 milliards d’adresses disponibles sur IPv4 semblaient donc alors être un nombre suffisant ! Ce n’est plus le cas aujourd’hui.

Si on ne se met pas à l’IPv6, on risque quoi ?

On risque de perdre des choses importantes pour Internet. Aujourd’hui, avec un nombre d’adresses IP suffisant, toutes les machines peuvent parler ensemble sur Internet, sans avoir à demander d’autorisation. S’il est limité, il faudra un intermédiaire entre les machines, qui pourra décider ou non de les connecter entre elles, regarder leur discussion, etc.

C’est d’ailleurs pour ça que l’IPv6 a avancé si lentement : un certain nombre d’organisations voulaient devenir cet intermédiaire. Par exemple, celle qui affirme dans ses publicités : “il y a Internet, et Internet selon nous”. Ce genre d’organisation, qui a en tête que le client ne regarde pas Internet, mais ce que les opérateurs proposent. Beaucoup ne sont pas favorables à l’IPv6.

Un article récent paru sur CNET.com montre d’ailleurs les inquiétudes du FBI à ce sujet : avec l’IPv6 selon eux, les délinquants pourront faire plus de choses. Si les gens gardent un silence pudique sur les conséquences de l’IPv6, c’est aussi pour cette raison. Le basculement en IPv6 est important pour préserver un Internet ouvert.

Pour certains, cette pénurie d’adresses pouvait donc être l’occasion de mettre un terme à l’Internet ouvert ?

Pas mettre un terme, mais plutôt tenter de limiter l’Internet ouvert. C’est moins un problème technique qu’une question politique et stratégique.

Qui a décidé du changement ?

Les premiers accord autour de l’IPv6 remontent à 1995. C’était au sein de l’IETF (Internet Engineering Task Force), en gros les gens qui font les normes sur Internet.

A côté de ces gens, il y a ceux qui font, qui exécutent sur Internet. Et eux n’ont pas de chef. Ça peut être vu comme une faiblesse, mais c’est aussi une force pour le réseau. Du coup, il a fallu convaincre individuellement des tas de gens.

Mais l’effet de réseau joue dans les deux sens : s’il ralentit le changement au départ, personne n’ayant intérêt à utiliser quelque chose que personne n’utilise, il l’accélère progressivement, avec l’accroissement du nombre des utilisateurs.

Concrètement, comment on fait pour passer à l’IPv6 ?

C’est assez technique, donc du ressort des informaticiens.
Pour l’utilisateur normal, ça s’apparenterait à la migration d’une voiture de l’essence au diesel : un changement qu’il ne pourrait faire tout seul.

Je pense que le rôle des utilisateurs est de demander à leur fournisseur de basculer en IPv6.

Passer à l’IPv6 ne va donc pas casser Internet ?

Si le basculement ne rencontre pas de problèmes, les internautes ne verront pas le changement. Par contre, il y aura des conséquences à long terme sur l’évolution d’Internet. Mais a priori, pas sur le vécu des internautes.

Et Internet ne sera jamais complètement cassé ! Le quotidien d’Internet, c’est de rencontrer tous les jours des problèmes et de les résoudre.

Aucun risque alors ?

Pas de risque global, non. Les sites qui le souhaitent vont faire une manipulation, qui, si elle tourne mal, peut engendrer un souci isolé, dans un coin d’Internet.

Mais beaucoup d’institutions et d’organisations ont déjà basculé depuis longtemps en IPv6. Cette journée mondiale de l’IPv6 n’est pas une obligation : c’est symbolique, rigolo, ça permet de relayer l’information dans la presse… Mais ça ne signifie pas le basculement d’un coup de tout l’Internet ! C’est impossible.

Il y a une deadline pour passer en IPv6 ?

Il n’y a pas de date limite. Internet n’est pas centralisé, il est impossible de fixer ce genre d’ultimatum.

La seule fois où Internet a déjà connu un jour J, c’était en 1983, avec la mise en place d’IPv4. Mais Internet n’avait rien à voir avec celui d’aujourd’hui.

Aujourd’hui, les gens qui veulent faire de l’IPv6 sont ceux qui doivent faire un peu plus d’efforts : IPv4 est encore la règle. Mais dans quelque temps, quand les utilisateurs seront majoritairement en IPv6, les choses s’inverseront, et ce sont les gens qui voudront rester en IPv4 qui devront s’adapter.

Les adresses IPv4 et IPv6 peuvent facilement communiquer entre elles ?

Pas vraiment. Les deux sont incompatibles. Aujourd’hui sur un site, il faut prévoir IPv4 et IPv6. Mais ce n’est pas un énorme travail pour un technicien ! Il faut juste y penser et sérieusement.

Et si les sites n’y pensent pas ? Si mon ordinateur a une adresse IPv6 et que les sites ont oublié de le prévoir ?

Aujourd’hui, la part d’utilisateurs sous IPv6 est très faible. Mais prenons un exemple récent : le site qui accueille le scrutin des français de l’étranger, diplomatie.gouv.fr, n’a pas pensé à l’IPv6. Donc les gens qui sont en IPv6 ne peuvent pas se connecter dessus.

Alors d’accord, aujourd’hui il n’est pas encore impératif d’être accessible en IPv6. Mais ça deviendra de plus en plus un problème. Surtout que la migration prend du temps. Donc ce n’est pas grave si des sites ne sont pas aujourd’hui accessibles en IPv6. C’est plus grave de ne pas avoir enclenché le processus.


Illustration CC Internet Society

]]>
http://owni.fr/2012/06/06/ipv6-essentiel-pour-linternet-ouvert/feed/ 19
[2/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-2/ http://owni.fr/2011/10/12/neutralite-reseau-internet-2/#comments Wed, 12 Oct 2011 17:47:11 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82962

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair. Après une première partie exposant l’analogie de “l’homme au radeau”, c’est l’heure du grand ménage : dissection, un à un, des différents arguments présentés par les “anti-neutralité”.

Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Je n’ai jamais demandé de triple-play, moi !

Un autre problème du débat sur la neutralité du réseau est la mauvaise foi généralisée, par exemple pour parler de questions techniques bien réelles.

Par exemple, le vocabulaire est systématiquement déformé. Ainsi l’utile “contrôle de congestion sert de prétexte pour favoriser son offre, en lui réservant des ressources réseaux.

De même, les services favorisés par l’opérateur sont rebaptisés “services gérés”, comme si le reste de l’Internet n’était pas géré et laissé à l’abandon ! Mais, évidemment, “service géré” sonne mieux que “service favorisé car nous rapportant plus”.

De même, les cas où des acteurs du réseau s’accusent réciproquement de “router selon le principe de la patate chaude” (comme dans l’affaire Comcast/Level3) ne doivent surtout pas être analysés techniquement : il s’agit de purs bras de fer, inspirés par une logique économique. Un des acteurs se dit qu’il a en ce moment l’avantage du rapport de force et il essaie de s’en servir pour obtenir de meilleures conditions. Pas de justice là-dedans, juste du business.

C’est la même chose avec les brusques depeerings qui défraient régulièrement la chronique. Ou quand un opérateur force le trafic d’un fournisseur à passer par des tuyaux artificiellement réduits (cas de l’affaire Megaupload/Orange).

Un des arguments favoris des FAI et opérateurs est que la télévision et la téléphonie (avec leurs exigences de qualité de service) nécessitent contrôle et filtrage (pardon, “gestion”) et ils en profitent pour étendre ce modèle à l’IP. Mais, justement, je n’ai jamais demandé de triple-play, moi.

Pourquoi diable ne puis-je pas avoir une simple connexion Internet, “faisant au mieux” ? C’est bien parce que les FAI l’ont décidé. Bref, ils ont créé eux-mêmes le problème dont ils prétendent aujourd’hui nous apporter la solution.

Asymétrie contre pair-à-pair

Il y a déséquilibre entre les gentils FAI qui assurent tous les investissements et les méchants fournisseurs de contenu comme Netflix qui injectent des giga-octets dans leurs réseaux sans avoir payé.
[ndlr : voir l'article "Netflix ne tuera pas Internet"]

C’est l’un des arguments favoris des adversaires de la neutralité et il mérite une discussion plus en détail.

En effet, s’il y a déséquilibre entre un acteur – typiquement un hébergeur de vidéos, car ce sont d’énormes quantités de données – qui envoie beaucoup d’octets et un autre acteur – typiquement un FAI qui a plein de globes oculaires passifs comme clients – qui ne fait qu’envoyer les biens plus petits d’accusé de réception, il y aura des problèmes et les solutions envisagées tourneront forcément à des idées anti-neutralité.

Un algorithme aussi inoffensif que celui de la “patate chaude”, parfait lorsque le trafic est à peu près symétrique, devient pénible pour l’une des parties dès que le trafic est très déséquilibré. Or, aujourd’hui, sur l’Internet, il y a un gros déséquilibre.

La plupart des hommes politiques, des journalistes, des gros acteurs économiques prônent un modèle TF1 : du contenu fourni par des professionnels, sur des plate-formes spécialisées, et des spectateurs crétins qui se contentent de regarder depuis chez eux. Un tel modèle mène à l’asymétrie de trafic, et aux conflits entre le FAI, comme Free, et le fournisseur de service YouTube.

Mais ce modèle n’est pas le seul et il n’est pas obligatoire ! L’Internet permet justement du trafic direct entre les utilisateurs, c’est une de ses principales différences avec les médias traditionnels. Si le pair-à-pair était plus utilisé au lieu d’être diabolisé, sur ordre de l’industrie du divertissement; avec des systèmes de sélection du pair le plus proche, le problème d’asymétrie se réduirait sérieusement et la neutralité du réseau ne s’en porterait que mieux..

La tentation du marché biface

Et sur l’argument “Google envoie des zillions de paquets sur notre réseau, ils doivent payer” ?

Un dirigeant de France Télécom, Éric Debroeck, affirme dans les Cahiers de l’ARCEP n° 3 [PDF] :

Les fournisseurs de service [comme YouTube, donc] sont à l’origine du volume de bande passante utilisée par leurs services [...].

Mais rien n’est plus faux ! Ce n’est pas YouTube qui nous envoie de force de la vidéo dans la figure. Ceux qui sont à l’origine de cette consommation de bande passante, ce sont les clients de France Télécom qui veulent voir des vidéos et qui ont la mauvaise idée de préférer YouTube au contenu très pauvre de “l’Internet par Orange”.

En gros, les FAI qui voudraient faire payer leurs clients, pour accéder à l’Internet, et les fournisseurs de contenus, pour qu’ils aient le droit d’envoyer leurs paquets sur le réseau, cherchent à créer un marché biface; un marché où l’intermédiaire est payé deux fois, ce qui est évidemment très intéressant pour lui.

Pour une régulation plus stricte

Le seul jeu du marché est clairement insuffisant pour amener à un respect de la neutralité du réseau. Il semble donc qu’il s’agisse d’un cas où une régulation plus stricte est nécessaire (de même que le secret de la correspondance privée, ou bien la non-discrimination par les transporteurs comme la Poste ou la SNCF sont déjà dans la loi).

Mais les difficultés commencent à ce point : comment traduire ces principes dans une loi, dans un texte ? Dire que “tous les paquets doivent être traités pareil” est un excellent principe mais son application se heurterait à des tas de difficultés.

Par exemple, étant donné qu’un des principes architecturaux de l’Internet est de faire la “signalisation” (en pratique, la maintenance des tables de routage) avec le même protocole, et en général dans les mêmes tuyaux que le trafic des utilisateurs, il est normal de prendre des mesures pour que certains paquets (OSPF ou IS-IS) soient favorisés. Après tout, il n’est dans l’intérêt de personne que le routage plante. Mais cet exemple illustre bien un problème courant en droit : dès qu’on essaie de traduire un grand principe en règles précises, voire algorithmiques, on rencontre tellement d’exceptions et de cas particuliers qu’il vaut mieux cesser d’avancer.

J’ai vu passer plusieurs suggestions mais aucune ne m’a semblé assez précise pour couvrir à peu près tous les cas.
Certaines peuvent même être dangereuses puisque, comme le note justement le blogueur Bluetouff, la quasi-totalité des lois concernant l’Internet en France sont des lois de contrôle, de flicage et de censure, et il ne faut donc pas forcément souhaiter une nouvelle loi.

Si le Chef du Clan du Taureau, qui a la plus grosse massue, impose une forme de neutralité au passeur, il pourra être tenté de l’assortir de règles comme fouiller les passagers – le DPI- pour vérifier qu’ils ne transportent pas de contenus illégaux.

Le problème des “DNS menteurs”

Un aspect de la neutralité du réseau qui est rarement mentionné, mais qui prend de plus en plus d’importance, est celui des DNS menteurs.

Ces résolveurs DNS des FAI qui se permettent de donner une réponse différente de la réponse originale sont clairement une violation de la neutralité des intermédiaires. C’est équivalent à un opérateur de téléphone qui redirigerait les appels pour la boutique de fleurs de Mme Durand vers celle de M. Dupont. Ou de notre passeur préhistorique qui dépose les clients à un endroit différent de celui qu’ils ont explicitement demandé.

L’AFNIC avait publié un très net avertissement sur ce point, rappelant l’importance de la neutralité.

C’est ainsi que, à l’été 2011, le FAI EarthLink redirigeait d’autorité les requêtes Google vers un serveur espion, en se servant de DNS menteurs.

De la même façon, les opérateurs d’un serveur DNS faisant autorité doivent évidemment répondre aussi vite pour tous les domaines, que ce soit monsieurmichu.fr ou tresimportantministere.gouv.fr.

Le piège des contenus “légaux”

Autre piège de langage qui se cache souvent dans les discours des anti-neutralité : affirmer que les utilisateurs ont droit à accéder à “tous les contenus légaux”.

Outre l’approche très Minitel – l’Internet ne sert pas qu’à “accéder à des contenus”-, cette formulation est dangereuse et doit être évitée. En effet, pour déterminer qu’un contenu est illégal, il vaut examiner très en détail le contenu transporté, et donc déjà violer la neutralité. (C’est bien pour cela que l’industrie du divertissement, toujours prompte à réclamer davantage de contrôle, s’oppose vigoureusement à la neutralité, qu’elle qualifie de “net impunité”.) La Poste achemine tous les colis, même illégaux et on ne voit personne proclamer qu’elle devrait ouvrir tous les paquets sous prétexte que “les usagers ont le droit d’envoyer toutes sortes de paquets, à condition qu’ils soient légaux”.

Le bridage sur mobile ? Des raisons économiques et non techniques !

Autre intrusion de la technique dans le débat : le cas des réseaux mobiles. L’argument anti-neutralité est que la capacité des réseaux sans-fil est bien plus limitée, et que cela justifie donc davantage d’attaques contre la neutralité de la part de l’opérateur. Il est vrai que les accès Internet 3G, par exemple, sont particulièrement bridés, avec beaucoup de services bloqués. Mais ce n’est pas pour des raisons techniques.

Le passeur avait sans doute raison de refuser les mammouths, qui sont objectivement trop lourds pour un simple radeau. Mais les opérateurs 3G ne suivent pas de principe technique objectif. Sur mon abonnement Bouygues, la téléphonie sur IP est interdite alors que la vidéo n’est pas mentionnée (et donc autorisée). Or, cette dernière consomme bien plus de ressources réseau. La violation de la neutralité par Bouygues n’est donc pas justifiée par des raisons techniques, mais par une logique de business : préserver la rente que représente, pour les opérateurs de télécommunication traditionnels, la voix.

Certaines personnes critiquant la neutralité du réseau ont prétendu dans le débat que l’IETF [ndlr: groupe qui participe à l'élaboration de standards d'Internet] avait donné son accord aux violations de la neutralité (ou plutôt aux “services gérés”” comme disent les lobbies aujourd’hui). L’IETF avait même dû faire un démenti. L’argument de ces personnes se basait sur des services de différenciation du trafic, comme le Diffserv.

La principale erreur de ce raisonnement est que Diffserv est un outil : si je fais cela dans mon réseau interne, pour m’assurer que mes sessions SSH< survivent à l'usage de YouTube par mes enfants, ce n’est pas un problème. Si un FAI se sert du même outil pour choisir les usages acceptables chez ses clients, il n’a pas le droit de dire que l’IETF l’y a autorisé : l’IETF a développé l’outil, celui qui s’en sert est censé être responsable de cet usage.

Quelques suggestions

Voilà, je suis loin d’avoir parlé de tout, et c’est pour cela que je vous recommande quelques lectures supplémentaires :


Cet article fait suite à “Neutralité du réseau : l’homme au radeau”.


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Photos et illustrations via Flickr : Armando Alves [cc-by] ; Anthony Mattox [cc-by-nc]

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-2/feed/ 5
[1/2]La neutralité du réseau pour les nuls http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/ http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/#comments Wed, 12 Oct 2011 11:45:53 +0000 Stéphane Bortzmeyer http://owni.fr/?p=82942

Stéphane Bortzmeyer est blogueur et membre de l’Afnic, Association française pour le nommage Internet en coopération. Cet “indigène de l’Internet, pas encore civilisé”, ingénieur, donne de la voix dans le débat sur la neutralité du réseau.

Ce principe, qui affirme que tout individu connecté peut consulter et diffuser n’importe quel contenu sur Internet, sans distinction, est mis à rude à épreuve dans la pratique. Couvert et observé dans les pages d’OWNI, le sujet est porté par de nombreuses voix, souvent divergentes. Stéphane Bortzmeyer tente d’y voir plus clair ; première partie, analogie : “la neutralité de la rivière”.

La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Ah, la neutralité du réseau… Vaste sujet, où ça part vite dans tous les sens, où la bonne foi est assez rare, où définir les principes est une chose mais où les traduire en termes concrets est étonnamment difficile… Que puis-je ajouter à un sujet sur lequel tant d’électrons ont déjà été agités ? Je vais quand même essayer de trouver quelques points de ce débat qui n’ont pas été trop souvent abordés.

Désaccord politique contre divergence philosophique

D’abord, comme ce débat a une forte composante technique, mais que les décisions sont prises par des non-techniciens, il faut expliquer de quoi il s’agit.

Le problème est assez simple. Si on veut savoir ce qu’est la neutralité du réseau, le plus simple est de regarder les gens qui l’attaquent (après avoir dit, bien sûr, qu’ils étaient pour cette neutralité mais, comme dirait Éric Besson, “sans absolutisme”). Les discours comme quoi la neutralité du réseau serait un frein à la civilisation viennent de qui ?

Des partisans de l’appropriation intellectuelle qui disent que la neutralité du réseau empêche de favoriser l’offre payante, ou bien des gros opérateurs qui expliquent que, pour notre bien, il faut les laisser faire ce qu’ils veulent ou encore d’un gouvernement de droite très hostile à l’Internet en général.

C’est toutes les semaines qu’on détecte une nouvelle atteinte à la neutralité de l’Internet par un de ces opérateurs. Pendant ce temps, les utilisateurs, les particuliers, comme les entreprises défendent fermement le principe de neutralité. Il est donc clair qu’il n’y a pas de divergence philosophique éthérée; il y a désaccord politique entre deux groupes, la neutralité de l’Internet étant défendue par les utilisateurs, la non-neutralité par les intermédiaires (opérateurs).

Un radeau et du réseau: le pouvoir de l’intermédiaire

Cela ne vous convainc pas ? Alors, il est temps de recourir aux analogies. Peu de débats ont autant utilisé les analogies que celui de la neutralité de l’Internet. On a comparé l’Internet à la Poste, aux autoroutes, à la distribution de l’eau, aux chemins de fer… Aucune analogie n’est parfaite et chacune a ses limites. Il ne faut donc pas les prendre trop au sérieux. Néanmoins, ce sont des outils pédagogiques utiles.

Alors, je vais présenter mon analogie à moi, en profitant pour recommander à toutes et tous les romans de Jean Auel (pour ceux qui ne connaissent pas, cela se passe dans la préhistoire et cela se veut assez réaliste).

Autrefois, donc, il y a vingt mille ans, les Cro-Magnon du Clan du Taureau n’utilisaient pas d’intermédiaires. Chacun fabriquait ce qu’il lui fallait et transportait ce qu’il avait besoin d’envoyer ailleurs. Si on voulait transmettre un cadeau à quelqu’un vivant à quelques kilomètres, on se mettait en route en portant ledit cadeau. Cela marchait très bien mais un problème de taille se posait : une large rivière coupait le paysage en deux et empêchait quiconque (sauf une poignée de nageurs sportifs) de traverser.

Un jour, un homme construisit un radeau, au prix de pas mal d’efforts, et se mit à faire traverser la rivière aux autres, en se faisant payer pour ses services. Tout changea car, désormais, les Fils du Taureau devaient faire appel à un intermédiaire. Et celui-ci comprit vite qu’il pouvait abuser de sa position. Il prit des décisions qui ne plurent pas à tout le monde :

  • Il décida subitement d’augmenter ses prix (deux poulets pour une traversée au lieu d’un) en disant qu’il devait financer la construction d’un nouveau radeau, l’ancien étant trop abîmé suite à l’usage important qui en était fait.
  • Il voulut faire payer les habitants de la caverne située de l’autre côté de la rivière, même lorsqu’ils n’utilisaient pas son radeau, en affirmant qu’ils profitaient quand même du service lorsque leurs amis ou relations d’affaires venaient les voir.
  • Un matin, il décréta qu’il ne ferait plus passer les Néanderthal du clan de l’Ours, en affirmant qu’ils n’étaient pas réellement des hommes dignes de ce nom.
  • Il permettait aux clients de traverser avec des animaux, mais décida que cette règle ne permettait pas de faire voyager des mammouths sur son radeau. “Ils sont trop lourds, et pourraient faire couler le radeau” affirmait-il.
  • Parfois, il rejetait telle ou telle personne, sans dire pourquoi.
  • Il voulut faire payer un homme plus cher, car celui-ci portait un kilogramme de cuivre, pour aller fabriquer des haches. “Le cuivre vaut très cher, il doit donc me payer plus”, disait le passeur. “Il faut faire payer uniquement au poids, un kilogramme de cuivre ou un kilogramme de légumes représentent exactement la même charge pour le radeau”, répondait son client.

À l’époque, tout cela se serait réglé avec quelques coups de massue. Quels sont les points communs à toutes les décisions de l’homme au radeau ? C’est qu’elles posent la question de la neutralité, non pas du réseau (qui n’est qu’un objet technique) mais de l’intermédiaire. Celui-ci profite de sa position. Après les coups de massue, faut-il légiférer pour préserver la “neutralité de la Rivière” ?

L’intermédiaire ne doit pas abuser de son rôle

Relisez bien les décisions du passeur. Elles sont en fait très différentes.

Certaines sont objectives. Refuser les Néanderthal est raciste mais objectif : la règle s’applique de manière uniforme. D’autres sont subjectives: le rejet arbitraire de certaines personnes. Certaines sont raisonnables (un mammouth adulte pèse entre six et huit tonnes, certainement plus que ce que le radeau peut supporter); d’autres le sont peut-être (l’augmentation des prix) mais, sans informations plus précises, il est difficile d’être sûr.

D’autres opposent la logique technique (un kilogramme de légumes est aussi lourd qu’un kilogramme de cuivre) à la logique du business (faire payer chaque client au maximum). Certes, cet exemple se situe dans un lointain passé. Mais les questions sont quasiment les mêmes aujourd’hui. La neutralité de l’Internet, c’est d’abord l’idée que l’intermédiaire ne doit pas abuser de son rôle.

Maintenant, comment cela s’applique t-il aux réseaux informatiques ?

Je ne vais pas faire le tour de toutes les questions sur la neutralité, plutôt discuter de certains arguments, techniques, politiques ou financiers. Comme le débat est complexe (il y a beaucoup de questions différentes, par exemple financement des infrastructures, flicage des contenus et des conversations, déploiement de la QoS [ndlr: notamment en France], lutte contre les clients qui abusent, etc.), rempli de mauvaise foi et de sous-entendus (par exemple les requins de l’appropriation intellectuelle attendant que les Fournisseurs d’Accès à Internet (FAI) déploient du DPI dans leurs réseaux pour leur demander par la suite de filtrer les violations du copyright); que tout le monde parle très fort, que presque tout a déjà été dit; je vais essayer d’être sélectif dans les points abordés.

L’opacité des infrastructures

D’abord, un point souvent oublié : l’importance de l’information. Lorsque le passeur ci-dessus, ou bien le PDG d’Orange aujourd’hui, expliquent qu’ils doivent faire payer plus pour supporter des investissements importants et nécessaires, on veut bien les croire sur parole mais, quand même, ne serait-ce pas mieux de vérifier ?

Cet argument financier est souvent brandi par les adversaires de la neutralité du réseau sans l’appuyer d’aucune donnée. Et pour cause, toutes les informations sur lesquelles s’appuie cet argument sont secrètes. Comme le note le rapport Erhel/de la Raudière, cité plus loin:

les marchés liés au réseau Internet restent opaques.

Alors, sérieusement, veut-on vraiment que le citoyen et le client acceptent les yeux fermés des arguments invérifiables ? Si les opérateurs croulaient tellement sous l’ampleur des investissements à faire, ne devraient-ils pas faire preuve de plus de transparence et publier tous leurs chiffres, qu’on puisse vérifier ? Le client et le citoyen devraient répondre: “OK, parfait, publiez tous vos comptes, une carte détaillés de vos infrastructures, vos informations de facturation, etc., et on en reparlera”. Le secteur manque cruellement de données fiables sur ce sujet. Il y aurait de très intéressantes études à mener si ces données étaient publiées.

Des offres Internet cryptiques

Liée à cette question, celle de l’information du consommateur. Une des demandes les plus fréquentes des adversaires de la neutralité du réseau est la possibilité d’avoir une offre à plusieurs vitesses, par exemple une offre de base bon marché et une offre Premium ou Platinum, plus coûteuse, mais de meilleure qualité. Bref, les riches auraient un meilleur Internet que les pauvres, comme la première classe est meilleure que la classe économique. Cela peut se discuter. [ndlr: voir l'exemple anglais sur Owni]

Mais une des raisons pour lesquelles cette demande n’a pas ma sympathie est que, si le voyageur aérien voit à peu près les avantages et les inconvénients de chaque classe, il n’en est pas de même pour les offres Internet. Regardez par exemple les offres en téléphonie mobile aujourd’hui et essayez, au delà du baratin marketing, de les classer, ou d’expliquer leurs différences. On constate aujourd’hui que très peu de FAI informent correctement leurs clients sur l’offre qu’ils leurs vendent. Essayez par exemple de savoir, avant de souscrire une offre 3G:

  • si vous aurez une vraie adresse IP publique ou bien une adresse privée
  • quels ports seront filtrés. Port 25 ? Port 53 ?

C’est un des points où mon analogie cro-magnonesque était faible : l’offre du passeur était évidente, transparente. Celle d’un accès à l’Internet est bien plus complexe.

Cette information sincère et complète des clients est donc un préalable absolu à toute acceptation de la logique d’un “Internet à plusieurs vitesses”. Le fait qu’aucun FAI ne documente son offre (selon le standard du RFC 4084) indique assez le souci qu’ils ont de ne pas tout dévoiler au client.

Or, même si on admet le discours (porté par exemple par l’ARCEP) comme quoi il est légitime d’avoir des offres différenciées (à des prix variables), alors, il faut être cohérent et que le client soit informé de ces filtrages, shapings“, etc. Or, aujourd’hui, toutes les violations de la neutralité par les FAI ont été faites en douce, voire en niant qu’elles avaient lieu. C’est par exemple le cas de Comcast avec le blocage de BitTorrent. Essayez de découvrir en lisant les Conditions Générales d’Utilisation de SFR ou d’Orange qu’est-ce qui est bridé ou interdit !

Le rapport Erhel/de la Raudière dit gentiment:

La transparence, qui apparaît relativement consensuelle, est laissée de côté dans la présentation du débat (tous les acteurs souhaitant que le consommateur puisse savoir quels sont les mécanismes de gestion de trafic mis en œuvre par les opérateurs et ce qu’il implique au niveau des fonctionnalités offertes).

Mais c’est de la pure politesse.

Oui, tout le monde dit qu’il est pour la transparence, mais cela ne se traduit pas dans les faits. Il faudrait donc édicter des règles, par exemple réserver le terme Internet pour le service neutre. C’est la proposition n° 5 du rapport Erhel/de la Raudière, équivalente au principe des AOC.


La suite de “Neutralité du réseau: l’homme au radeau”: “Neutralité du réseau: le grand ménage”


Article initialement publié sur le blog de Stéphane Bortzmeyer, sous le titre “Et moi, qu’ai-je à dire de la neutralité du réseau ?”

Illustrations CC FlickR mediafury (CC-by), colodio (cc-by-nc-sa), so amplified (cc by-nc-sa)

]]>
http://owni.fr/2011/10/12/neutralite-reseau-internet-radeau-1/feed/ 5