OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le bon mobile du chasseur de moustiques http://owni.fr/2012/10/23/bon-mobile-chasseur-moustiques/ http://owni.fr/2012/10/23/bon-mobile-chasseur-moustiques/#comments Tue, 23 Oct 2012 07:00:13 +0000 Nicolas Patte http://owni.fr/?p=123447

À ma connaissance, c’est la première fois qu’une telle masse de données, avec une telle précision, a été utilisée en prévalence de maladies infectieuses pour cartographier ces facteurs de risque et de mobilité. – Caroline Buckee

C’est sans doute, en effet, la première fois : la totalité des appels et des SMS générés par 15 millions de Kényans entre juin 2008 et juin 2009 a été analysée pour faire progresser la science. Quitte à semer le trouble sur l’épineuse question de la vie privée des utilisateurs.

Les migrations humaines contribuent à la propagation du paludisme, bien au-delà du rayon d’action du moustique Anopheles, son principal agent de transmission. Il s’agit d’un véritable casse-tête, notamment sur de vastes zones géographiques lorsque les ressources sont limitées – tant pour les soins que pour le contrôle des insectes.

Partant de l’observation selon laquelle il est impossible de cerner la façon dont cette maladie se propage sans des informations précises sur l’endroit où vivent les populations, une équipe de chercheurs américano-kényans a donc démontré, à travers cette étude menée en Afrique sub-saharienne, que les données enregistrées sur des téléphones portables pouvaient être utilisées dans le but d’identifier les régions à cibler en priorité dans le combat contre la maladie. L’étude a été publiée dans la revue Science parue le 12 octobre dernier.

L’Afrique piquée au vif

Selon le Rapport 2011 sur le paludisme dans le monde publié par l’OMS, les décès associés en 2010 au paludisme – sont encore estimés à près de 700 000, soit l’équivalent, pour cette année, de la disparition des habitants des communes de Lyon et de Lille réunies. Plus de 90% des décès se situent en Afrique, et 86% des victimes à travers le monde sont des enfants de moins de 5 ans. En guise d’espoir, des réductions de plus de 50% des cas signalés ont été enregistrées dans la moitié des 99 pays touchés par la transmission au cours de la première décennie de ce siècle. Principale raison : le nombre de moustiquaires imprégnées d’insecticide livrées par les fabricants dans cette région de l’Afrique a considérablement augmenté et est passé, entre 2004 et 2010, de 5,6 millions à 145 millions d’unités.

Toutefois, ces mesures sanitaires sont loin d’être suffisantes. Raison pour laquelle la recherche se penche aujourd’hui sur des voies alternatives pour endiguer le fléau. “Les programmes de lutte contre le paludisme ont des outils très efficaces pour prévenir la transmission aujourd’hui, mais malheureusement, les ressources pour leur mise en oeuvre sont très limitées”, selon Justin Cohen, conseiller technique principal de l’équipe de contrôle du paludisme du Clinton Health Access Initiative. La technique utilisée dans cette étude nous donne un moyen d’optimiser l’impact de nos ressources limitées.

Plus de 30 pays à travers le monde ont déclaré un objectif national d’élimination du paludisme, mais il est difficile d’éliminer la maladie quand de nouveaux cas sont constamment importés. – Andy Tatem

Exploration à la carte

Andy Tatem est professeur agrégé de géographie à l’Institut des Pathogènes Emergents de l’Université de Floride et co-auteur de l’étude. Il a fourni des cartes de population indispensables grâce à son projet AfriPop, qui utilise de l’imagerie satellitaire, des données de recensement et des cartes d’occupation du sol pour créer une cartographie détaillée de la répartition de la population de l’Afrique sub-saharienne.

Représentation en 3D d'une résolution spatiale à 100 mètres, version alpha, population d'Afrique de l'Est 2009 - afripop.org

Représentation en 3D d'une résolution spatiale à 100 mètres, version alpha, population d'Afrique de l'Est 2009 - afripop.org

Son équipe a ensuite utilisé les données fournies par une compagnie kényane de téléphonie mobile pour identifier les itinéraires les plus empruntés entre les différents coeurs de population, données où figurait une année pleine d’informations sur la localisation, les déplacements, la destination ou même les transferts d’argent de 14 816 521 utilisateurs de téléphones portables à travers le Kenya.

Professeur assistante en épidémiologie à Harvard et co-auteur de l’étude, Caroline Buckee s’est évidemment réjouie des perspectives offertes par la réunion du “big data” et de la cartographie des populations :

Déterminer où les gens vivent peut paraître trivial, mais c’est en fait une chose très difficile à faire en Afrique sub-saharienne. Des chercheurs avaient utilisé des GPS, des sondages et des flux de circulation sur les routes principales pour essayer de comprendre comment les gens se déplaçaient, mais ça nous fournissait des informations sur quelques centaines de personnes, tout au plus. Notre utilisation des informations issues de téléphones portables a apporté des milliards de données.

Carte de la pression clinique du Plasmodium falciparum en 2007 au Kenya - Malaria Atlas Project

Carte de la pression clinique du Plasmodium falciparum en 2007 au Kenya - Malaria Atlas Project

Et c’est bien grâce à ces données et à son travail de cartographie que les chercheurs d’Afripop ont réalisé un modèle de transmission du paludisme qui, appliqué à la population et ses mouvements, prédit les risques d’infection grâce à l’utilisation de la théorie mathématique des probabilités. Les résultats ont clairement montré que l’éruption du paludisme durant la période d’étude avait eu lieu dans la région du Lac Victoria et que la maladie s’était étendue vers l’est, en direction de la mégapole de Nairobi. Une cartographie qui démontre comment le paludisme est susceptible de se déplacer entre les différentes régions du Kenya. Et quelles régions, précisément ciblées par les équipes de lutte contre la maladie, produiraient le meilleur résultat au niveau national.

La question qui fâche

Reste une question – sinon la question qui taraude y compris les professionnels du mHealth. L’opérateur kényan Safaricom – qui appartient pour 60% à l’Etat et pour 40% à Vodafone – a-t-il demandé l’autorisation à ses 15 millions de clients pour permettre aux chercheurs majoritairement américains de fouiller, scruter, analyser un si grand nombre de données les concernant ? Rien n’est moins sûr. Contactée par Owni, la Fédération des Consommateurs Kényans (Cofek) dit avoir approché Safaricom à ce sujet sans jamais avoir reçu de réponse. “Du point de vue de la loi kényane, de telles études – qu’elles soient à but commercial ou de charité – utilisant des données de possesseurs de téléphones mobiles, sont inacceptablement intrusives”, nous a déclaré Stephen Mutoro, son secrétaire général. En ajoutant, fermement :

Nous espérons que ceux qui ont conduit cette étude, s’ils souhaitent être pris au sérieux, ressentiront le besoin d’éclaircir certains points mystérieux concernant la méthodologie employée, notamment si une autorisation en bonne et due forme de Safaricom et de la Commission des Communications du Kenya a été délivrée. Si, comme on le redoute grandement, il existe une brèche sur les questions de vie privée, alors les coupables se feront certainement taper sur les doigts, avec une énorme compensation financière pour les consommateurs. Nous attendons également que la Commission des Communications du Kenya [CCK] agira de manière proactive et demandera les informations nécessaires au sujet de la méthodologie employée pour cette étude.

Au Kenya, où 84% de la population est couverte par les réseaux mobiles, la pénétration du téléphone portable atteignait 42% en 2008 (source ITU), et les abonnés étaient plus de 18,5 millions (selon la CCK) en 2009 pour une population totale de 40 millions – soit plus de 46%. Les prévisions de l’époque indiquaient que ces chiffres seraient susceptibles de doubler en cinq ans ; plus de 25 millions en 2011, comme le montre le graphique ci-dessous.

Le Kenya est l’un des pays d’Afrique pionnier en matière de téléphonie mobile, ce qui s’explique notamment par la pauvreté du réseau cuivré. À titre d’exemple, le pays s’est doté depuis 2007 d’un système de paiement électronique innovant, M-Pesa, prévu au départ pour les transferts d’argent depuis l’international et devenu en quelques années un véritable système monétaire quasi-privé aux allures de potentielle monnaie parallèle. Ce qui rend la question de l’analyse des données de Safaricom d’autant plus sensible, vu que ces transactions financières sécurisées faisaient partie du lot de la “big data” passée entre les mains des chercheurs.

Dans ce contexte de baisse des revenus et de part de marché drastique, nous avons interrogé Safaricom afin de savoir dans quelles conditions ce “big data” (une année des données de 15 millions d’utilisateurs) avait été cédé à l’étude. Contrepartie financière ? Open Data ? Les clients “cobayes” ont-ils été prévenus ? Nous n’avons pas reçu de réponse à ce jour. Et nous espérons que l’opérateur ne se soit pas tout simplement endormi sur ses principes.

Le bénéfice du doute

Au centre de la modélisation de cette masse colossale de données, Amy Wesolowski, jeune étudiante de l’Université Carnegie Mellon, travaille avec Caroline Buckee. Elle a déjà été interpellé sur cette question [pdf, page 15] de vie privée au sujet des données traitées au Kenya. Sa position de chercheur est sensée, polie, de bon aloi, mais pas forcément très claire sur la méthodologie employée par l’étude s’agissant de la récupération des données. Nous avons cherché à la joindre, elle est restée muette à nos questionnements, et nous en resterons donc à cette réponse de 2010 :

Ces données peuvent être utilisées pour de mauvaises choses, mais nous essayons de rester du côté du bien.

Professeur au département de médecine préventive de l’Université Vanderbilt, William Schaffner ne dit pas autre chose :

Je me doute bien que certains seront nerveux à l’idée d’un “big brother” qui nous suivrait partout. Pour ma part, je suis bien plus excité par les possibilités de nous prévenir d’une sérieuse affection.

Au vu des différents éléments que nous avons en notre possession et du mutisme appliqué de l’opérateur, il est donc probable que les 15 millions de clients de Safaricom aient été des cobayes à leur insu. Mais que ces innombrables données étudiées, manipulées pour la science, l’aient été dans un état d’esprit qui laisse peu de place à la paranoïa. Pour preuve, sans doute, ce document de travail “Du fair use de données comportementales, agrégées et anonymes” [pdf] réalisé par Nathan Eagle, doux-dingue ingénieur-informaticien passionné de béhaviorisme et de bien commun, PDG de txteagle qui pige de temps à autre pour le MIT et Harvard. Il a participé à la rédaction de l’étude parue dans Nature. Il est marié à la ville à… Caroline Buckee. Et qui, en évoquant son travail à Harvard, le résume ainsi :

En fin de compte, notre programme de recherche consiste à déterminer comment nous pouvons utiliser ces données pour améliorer activement la vie de milliards de personnes qui génèrent ces données et améliorer les sociétés dans lesquelles ils vivent.

C’est beau comme une keynote de Google.


Photos par Lukas Hofstetter [CC-byncsa] remixée en une par Ophelia Noor pour Owni ; et Aaron Knox [CC-byncsa].

La représentation en 3D d’une résolution spatiale à 100 mètres, version alpha, population d’Afrique de l’Est 2009 est issue du site afripop.org. Les régions zoomées sont celles de Bujumbura (a), Kigali (b), Kampala(c), Nairobi (d) et Dar Es Salaam (e) ; la carte de la pression clinique du Plasmodium falciparum (parasite qui cause le paludisme) en 2007 au Kenya est issue du site Malaria Atlas Project.

]]>
http://owni.fr/2012/10/23/bon-mobile-chasseur-moustiques/feed/ 3
Les impôts que Starbucks & cie paient vraiment http://owni.fr/2012/10/17/les-impots-que-starbucks-cie-paient-vraiment/ http://owni.fr/2012/10/17/les-impots-que-starbucks-cie-paient-vraiment/#comments Wed, 17 Oct 2012 10:25:42 +0000 Nicolas Patte http://owni.fr/?p=122942 The Guardian dans le radar data du jour. Comment Starbucks, Facebook et leurs amis évitent de payer trop d'impôts au Royaume-Uni.]]> How much tax is paid by major US companies in the UK? Graphic: Paul Scruton/Guardian Graphics

How much tax is paid by major US companies in the UK? Graphic: Paul Scruton/Guardian Graphics

Veille data

Le Guardian a repris hier une information de Reuters selon laquelle la célèbre (et très hype) chaîne de restauration américaine Starbucks ne payait pas d’impôts au royaume de Sa Majesté.

Le web mise sur le fisc irlandais

Le web mise sur le fisc irlandais

Apple vient d'annoncer un renforcement de ses effectifs au sein de son siège européen, en Irlande. La firme recrutera 500 ...

Partant de ce constat, les journalistes de données de la rédaction numérique du quotidien anglais se sont penchés sur les filiales locales des plus grosses entreprises américaines afin d’établir le montant des impôts qu’elles versent depuis quatre ans. Pour cela, ils ont utilisé les services de Duedil, spécialiste des données financières outre-Manche, et la technologie en ligne de Tableau, pour structurer une véritable application web.

L’application permet, entre autres, d’afficher le chiffre d’affaires global de ces entreprises (“UK Turnover”), le profit déclaré avant impôt (“Profit before tax”) et l’impôt effectivement payé (“Tax paid”) entre 2008 et 2011.

Il apparaît que de nombreuses entreprises américaines faisant commerce sur le sol britannique déclarent régulièrement réaliser des pertes. En 2011, Starbucks serait dans le rouge de 32 millions de livres, Google de près de 21 millions et Facebook de quasi 14 millions. Facebook a d’ailleurs été récemment accusé de se moquer ouvertement du monde en ne déclarant qu’une partie congrue de ses ventes.


Illustration How much tax is paid by major US companies in the UK? Paul Scruton/Guardian Graphics

]]>
http://owni.fr/2012/10/17/les-impots-que-starbucks-cie-paient-vraiment/feed/ 2
Comment les États gèrent http://owni.fr/2012/10/16/comment-les-etats-gerent/ http://owni.fr/2012/10/16/comment-les-etats-gerent/#comments Tue, 16 Oct 2012 10:22:24 +0000 Nicolas Patte http://owni.fr/?p=122785 New York Times dans notre veille de journalisme de données aujourd'hui. Le duel entre Obama et Romney sera au couteau, et dans chaque État.]]> Capture d'écran du site New York Times

Capture d'écran du site New York Times

Veille data

Notre veille du jour en matière de journalisme de données, c’est cette jolie et efficace visualisation réalisée par Mike Bostock et Shan Cartner du New York Times.

Sa forme, appelée “diagramme de Sankey“, met en valeur un élément central de l’élection présidentielle américaine : les basculements historiques successifs des États pour un bord ou un autre – et par conséquent pour un candidat ou un autre. Chaque boîte de couleur (rouge pour les Républicains, bleu pour les Démocrates) représente un État proportionné à son nombre de votants ; chaque courbe montre comment le vote a dévié vers la droite ou la gauche au fil du temps.

Si la majorité des États sont assez constants sur le bord politique principal de leurs concitoyens, les choses sont très différentes dans ceux qu’on nomme les “swing states” : littéralement, les États qui oscillent, comme des pendules. Raison pour laquelle les candidats concentrent leurs efforts sur quelques régions durant leur marathon, comme la Floride ou l’Ohio. Ce dernier étant principalement apprécié puisqu’il a toujours donné le nom du vainqueur depuis 1964.

Un tel travail de datajournalisme – extraction de données complexes (à partir de l’atlas des élections présidentielles de David Leip) et mise en forme d’apparence simple et aisée à manipuler – offre une véritable occasion, en un coup d’oeil et quelques glissés de souris, de comprendre un peu mieux l’élection présidentielle américaine, scrutin sur lequel tous les yeux seront braqués dans exactement trois semaines.

]]>
http://owni.fr/2012/10/16/comment-les-etats-gerent/feed/ 0
Chronique d’un leak annoncé http://owni.fr/2012/09/25/facebook-bug-leak-annonce/ http://owni.fr/2012/09/25/facebook-bug-leak-annonce/#comments Tue, 25 Sep 2012 16:09:59 +0000 Nicolas Patte http://owni.fr/?p=120908

The Labyrinth of memory - photo by-nc Mister Kha

“FacebookLeak”, “bug Facebook”, peu importe son nom. La frise chronologique est bouleversée. Facebook n’a jamais eu — semble-t-il — que des détracteurs, mais Facebook a quasiment autant — voire bien davantage — d’utilisateurs. Le caractère intrinsèque de la folie suscitée hier par une information non vérifiée et profondément préemptée est fondamentalement lié à l’anticipation de l’événément par l’imaginaire collectif.

Dans une des plus brillantes pièces du théâtre anglais contemporain, Betrayal, Harold Pinter décrit la relation psychologique entre trois personnages classiques : le mari, la femme, l’amant. Le chef d’oeuvre commence par la fin de l’histoire — elle lui avoue que son époux est au courant de leur relation depuis deux ans — et termine par son origine : l’immoral et répréhensible baiser. Le génie de Pinter est de susciter la tension créée par cette trahison à rebours qui met l’amant dans la situation désepérée du mari en provoquant son hystérie sourde — et un sentiment particulièrement équivoque de bien-être chez le lecteur.

Poke

Ce qui vient de se passer avec la tragédie drôlatique du vrai-faux dysfonctionnement non avéré de Facebook n’est pas une histoire comme les autres. Le processus narratif n’est pas linéaire comme l’appréhension publique et populaire d’un accident industriel ou d’une catastrophe naturelle. Les événements semblent pourtant s’enchaîner dans le même tempo : il se passe quelque chose, la foule s’en empare, l’hystérie prend le dessus, la raison intervient, le questionnement surgit ; il s’est passé quelque chose.

Sauf que la manière dont l’information a rebondi hier ne ressemble en rien à cette manière dosée de furie et de consternation qui jalonne les accidents industriels et les catastrophes naturelles. La palette des sentiments de cette soudaine synesthésie facebookienne a débordé ad absurdum jusqu’au perron des ministères, dont on imagine les plus jeunes membres, le doigt moite, vérifier leur propre timeline tandis qu’ils méditaient sur le genre de communiqué qu’ils pourraient fournir (jusqu’au bout de la nuit) à une presse déjà ras-la-gueule et suffisament étourdie sur le sujet.

Dans un entretien avec Bernard Pivot en 1976, l’ancien publicitaire et romancier René-Victor Pilhes prévoyait :

Le retour à la bestialité est possible dans une société comme la nôtre. En raison de la désorganisation des mentalités, des crises d’hystéries généralisées, tout cela aggravé par les crises économiques.

Parmi les plus vitupérants, les plus exaltés des journalistes sur ce sujet (devenu) excessivement mainstream, d’aucuns ont claqué la langue avec la délectation de ceux qui pourchassent sans répit les conspirationnistes du 11-septembre. Si la comparaison peut paraître excessive, elle ne l’est pas : lorsque Facebook a balancé son laïus illico — repris la bouche en coeur par les purs players de la Vallée — démentant le moindre problème sur Ses éminents serveurs, la corporation s’est scindée au même pas. La famille des “mouais j’ai pourtant moi-même constaté le problème” et celle des “ah on vous l’avait bien dit et d’ailleurs avez-vous des preuves de ce que vous avancez” ont planté le campement. Et s’observent en chiens de faïence depuis.

Hate

Cette exacerbation minitieuse des petites rancoeurs connectées ressemble à s’y méprendre à la continuation d’un vieux flaming démarré la veille sur un mur Facebook. Ou une conversation privée. Bref, on se sait plus. Mais c’est public, et c’est en famille.

Tout le monde sait que Facebook est une passoire en nacre, un anus chaste ouvert sur le monde. Que ses paramètres de confidentialité comportent 1 000 mots de plus que la Constitution française. Que des arnaques pour des iPhone 5 à 69 euros y pullulent. Que les données personnelles qu’on y “efface” restent stockées au fond du Nouveau-Mexique ou ailleurs.

Que toutes les filles ne comprennent pas le truc pour mettre les photos en maillot de bain accessibles uniquement aux très bons amis. On sait que ça va exploser et qu’on va tous le quitter un jour. Que l’histoire va s’arrêter. Que le grand secret de la réussite d’un post-ado génial un peu connard devenu milliardaire sera forcément dévoilé aux yeux rouverts de l’humanité tétanisée par son affection pour une plate-forme qui lui permet d’avoir une vie sociale avec des gens qui n’existent plus vraiment.

Hier la boîte de Pandore a failli s’ouvrir sur une histoire qu’on connaît déjà tous. Nous avons failli être cet amant qui apprend par sa maîtresse que son mari est au courant depuis bien longtemps. Nous avons flirté avec l’hystérie, et avec un infini bien-être. Même joueur, rejoue encore.


Photo CC The Labyrinth of memory [by-nc] Mister Kha

]]>
http://owni.fr/2012/09/25/facebook-bug-leak-annonce/feed/ 12
Frein à main sur la voiture sans pilote http://owni.fr/2012/09/17/frein-a-main-sur-la-voiture-sans-pilote-driverless-car-google/ http://owni.fr/2012/09/17/frein-a-main-sur-la-voiture-sans-pilote-driverless-car-google/#comments Mon, 17 Sep 2012 10:53:38 +0000 Nicolas Patte http://owni.fr/?p=120148 driverless car, sorte de promesse d'un futur où circulent des voitures sans conducteur. En Californie, le projet est chahuté par les défenseurs de la vie privée qui voit dans ces véhicules de nouvelles possibilités pour fliquer le quotidien des citoyens.]]>

Eric E. Schmidt Président exécutif, Larry Page PDG et Sergey Brin co-fondateur, dans la Google self-driving car en janvier 2011

Une association californienne de défense des consommateurs a mis le turbo pour interdire la voiture sans conducteur élaborée par Google, au titre — comme souvent — de la protection de la vie privée des utilisateurs. Et joue clairement la carte de David contre Goliath.

C’est en effet seule contre tous que l’association Consumer Watchdog a contacté très officiellement [pdf] la semaine dernière le gouverneur de Californie Jerry Brown pour lui demander d’apposer son veto sur le projet de loi “SB 1298“. La loi, si elle devait être adoptée, permettrait à l’État de tracer, sur le long terme, sa première autoroute automatisée remplie de véhicules-robots. Mais surtout, sur un plus court terme, de laisser rouler des voitures sans pilote sur les routes californiennes.

Dit comme ça, le projet paraît sortir d’un bouquin de science-fiction, mais il est pourtant sur le point d’aboutir. Déjà, des constructeurs comme Toyota, Audi, BMW, Lexus, Volvo ou encore Cadillac sont sur les dents pour produire des véhicules “autonomes” d’ici cinq ans. Le projet de loi, soumis par le sénateur démocrate Alex Padilla, est appuyé par certaines associations de promotion de la sécurité routière — mais pas toutes.

En tout état de cause, Google communique largement sur les statistiques de sa voiture sans conducteur (VSC) qui aurait quasiment atteint les 500 000 kilomètres sans incident, tandis que celles du conducteur étasunien sont moins bonnes : en moyenne, Average Joe fait face à un accident de la route tous les 250 000 kilomètres.

Situation enjolivée

Pourquoi Consumer Watchdog souhaite envoyer dans le décor un projet en apparence si futuriste et prometteur, réclamé par les statistiques donc, mais aussi par les lecteurs de SF, le gouvernement californien et le Sénat de l’État ? “Parce qu’un loi qui régule des véhicules autonomes doit s’assurer que les voitures sans conducteur rassembleront uniquement les données nécessaires à faire fonctionner l’automobile, et ne mémoriseront pas les données davantage que nécessaire”, clame John Simpson, directeur de la branche “vie privée” de l’association. Selon lui, le business model de Google :

c’est de monter des dossiers numériques sur nos comportements personnels et de les vendre aux annonceurs. Vous n’êtes pas le client de Google ; vous êtes son produit, qu’il vend aux entreprises désireuses de payer n’importe quel prix pour vous atteindre. (…) La technologie sans conducteur se contentera-t-elle de nous mener d’un point à un autre, ou traquera-t-elle comment nous y sommes allés et ce que nous avons fait durant le trajet ?

Dans le rétroviseur

Consumer Watchdog pense avoir des raisons de s’en faire au vu de la relative légèreté affichée par le géant du web en matière de vie privée. Et de rappeler deux évènements particulièrement fâcheux qui ont fait récemment déraper Google.

  • La première affaire est Wi-Fi Spy : il a été établi que les voitures qui circulent autour du globe pour photographier chaque rue et (re)constituer la fabuleuse base de données “Street View” ont été également conçues pour récolter des données personnelles sans aucun rapport avec leur mission. Ce que Google a voulu initialement faire passer pour le logiciel expérimental d’un ingénieur isolé était en fait — telle que l’a découvert la Commission fédérale des communications (FCC) — une fonctionnalité parfaitement intégrée au système.
    Résultat : en passant à proximité des habitations, ces Google cars se connectaient aux réseaux Wi-Fi ouverts qu’elles rencontraient et sauvegardaient toutes les infos qu’elles y trouvaient — y compris les mots de passe ou les e-mails.
  • La deuxième affaire sensible pour Google concerne l’espionnage organisé du navigateur Safari utilisé par Apple sur son iPad et son iPhone, qui représente environ 50 % du marché des navigateurs sur mobilité. Le méfait : utiliser du code pour tromper le navigateur qui, par défaut (et c’est un des rares), protège ses utilisateurs des cookies tierce partie, ceux-là même qui envoient des informations sur nos comportements et notre navigation aux réseaux de publicités en ligne. Et donc de détourner lesdites informations contre le gré des internautes et mobinautes.
    Pour ce “petit” secret, la firme tentaculaire a été condamnée le mois dernier à une amende de 22,5 millions de dollars [pdf] par la Federal Trade Commission (FTC). Une misère qui représente 0,2 % de ses revenus au deuxième trimestre — pour relativiser — et qui met un terme à une bévue dévoilée en février dernier par le Wall Street Journal.
  • Deux affaires de détournement des données privées, avérées et répréhensibles, en contrepoint de l’image lissée d’une entreprise dont le slogan (don’t be evil — “ne fais pas le mal”) résonne comme celui d’un parangon de probité. C’est pourquoi Consumer Watchdog réclame, de la part du Goliath et des autorités qui filent à tombeau ouvert avec lui, que le prochain joujou soit surveillé de (beaucoup plus) près.

    Apprenti maître-de-l’univers enthousiaste et maladroit, ange et démon, carburant aux passions humaines, slalomant entre l’absolue volonté de nous rendre à la fois libres de nos entraves et esclaves de nos petites libertés quotidiennes, Google titille encore son monde, avec cet air innocent et enfantin de ceux qui jouent à faire briller les chromes de la Buick pour parader dans Main Street. Bref, rien de nouveau sous le soleil californien : on lui passera sans doute cette facétie-là.


    Photo de la Google Car via Google Inc.

    ]]>
    http://owni.fr/2012/09/17/frein-a-main-sur-la-voiture-sans-pilote-driverless-car-google/feed/ 11
    Les mystérieuses bases de données de Mitt Romney http://owni.fr/2012/08/28/les-mysterieuses-bases-de-donnees-de-mitt-romney/ http://owni.fr/2012/08/28/les-mysterieuses-bases-de-donnees-de-mitt-romney/#comments Tue, 28 Aug 2012 14:18:32 +0000 Nicolas Patte http://owni.fr/?p=118863 Associated Press.]]>

    Mitt Romney est un gars heureux. Le candidat républicain à l’investiture suprême face à Barack Obama est plutôt du genre à récolter facilement des fonds pour sa campagne. Des centaines de millions de dollars récoltés, entre autres, grâce à un projet très secret d’exploration de données (data mining) comprenant des informations personnelles telles que des actes d’achat ou une présence à l’église – comme l’a appris et rapporté l’Associated Press. Dans une enquête fouillée, mise en ligne par sa cellule investigation de Washington.

    Afin de cibler ses potentiels donateurs, Romney passe discrètement par les services d’une entreprise texane spécialisée dans l’analyse de données, Buxton Company, une société qui se vante d’agréger des informations sur 120 millions de foyers américains. Et qui bossait déjà pour le candidat républicain à l’époque où celui-ci dirigeait le cabinet de consulting Bain & Company, qui a confirmé filer un coup de main pour détecter, parmi les sympatisants du parti à l’éléphant, les riches concitoyens n’ayant pas encore mis la main au portefeuille.

    Point troublant : la loi interdit aux entreprises l’analyse de données propriétaires à des fins de contribution “en nature” à la campagne d’un candidat. Mais il n’existe aucune trace comptable parmi les rapports financiers soumis à la Commission électorale fédérale (FEC) d’une relation financière entre Buxton Company et Romney. Dont l’équipe reste sagement muette sur le sujet. Mutisme que n’observeront ni le patron de la société Tom Buxton, qui a confirmé vouloir s’afficher aux côtés “des gagnants”, ni par un leveur de fonds du candidat, qui a, lui aussi, décrit le projet à AP sous couvert d’anonymat.

    Il est beau il est frais mon candidat

    Le projet montre que les statégies d’entreprise utilisées pour influencer nos décisions d’achat et nos façons de penser sont désormais appliquées pour influencer les élections présidentielles”, indique l’AP, qui précise : “les mêmes données personnelles que nous donnons, souvent sans le savoir, en utilisant nos cartes de paiement ou en nous connectant à Facebook, sont maintenant collectées par des gens qui pourraient un jour occuper la Maison Blanche.

    Le projet repose ainsi sur une analyse sophistiquée et dûment informatisée de centaines de bases de données commerciales très coûteuses, achetées et vendues en toute légalité – mais dans la plus grande discrétion – par les boîtes de marketing. Informations bancaires, fiscales, immobilières, civiques, familiales, réponses à des enquêtes d’opinion : tout ce que le secteur sait des Américains et de leur profil psychographique s’y retrouve.

    DR – capture d'écran du site Buxtonco.com

    Et permet, par exemple, de mettre la main sur plus de 2 millions de foyers de la région de San Francisco passés par le “détecteur Romney” et identifiés comme ayant la capacité de participer à la campagne du candidat pour (au moins) 2 500 dollars. Bingo. Cet été, selon une analyse de l’AP, les Républicains ont progressé significativement dans les quartiers traditionnellement démocrates en levant plus de 350 000 dollars autour de la Baie avec une contribution moyenne de 400 dollars par donateur – loin des montants auxquels son parti est habitué dans ce genre d’exercice où les plus riches sont habituellement ciblés. En bref : Romney chasse sur les terres d’Obama.

    “Je peux regarder n’importe quelle donnée et dire ‘Je veux savoir qui pourraient être les donateurs à 100 dollars’. Nous travaillons sur n’importe quelle donnée.” – Tom Buxton

    Enclin à fouiller, scruter, détailler et rendre parfaitement transparents les profils de ses concitoyens pour que la fête à plusieurs milliards de dollars puisse continuer, Romney est beaucoup plus opaque pour justifier de l’origine des fonds qui le propulsent aujourd’hui au niveau du Président sortant.


    Source : Romney Uses Secretive Data-Mining
    Photo CC [by-nc-cd] davelawrence8

    ]]>
    http://owni.fr/2012/08/28/les-mysterieuses-bases-de-donnees-de-mitt-romney/feed/ 8
    Le Véritomètre de la présidentielle http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/ http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/#comments Thu, 16 Feb 2012 09:58:02 +0000 Nicolas Patte http://owni.fr/?p=98726 Le Véritomètre
    Découvrez “Le Véritomètre“.

    Le citoyen, qui est un être sensible, éduqué, un peu idéaliste et pas cynique pour un sou, connaît deux moyens sûrs pour arrêter son choix au moment d’élire celui ou celle qui le représentera au plus haut niveau de l’État.

    Le premier, sans doute le plus sensé, est de déchiffrer avec attention le programme politique diffusé par l’ensemble des candidats à l’élection présidentielle (soit une petite vingtaine aujourd’hui), et de confronter ces lectures avec son bon sens, son entendement, ses convictions et sa vision de la chose publique. Le deuxième moyen, moins subjectif – mais toutefois fort compatible avec le premier, c’est donc celui qui aura notre préférence – consiste à écouter chaque candidat(e) durant la campagne pour vérifier scrupuleusement la fiabilité des propos tenus lors de ses allocutions.

    Confiance

    La question de la confiance, pour le citoyen sensible, éduqué, etc., est évidemment cruciale dans son rapport au politique : on élit à la fonction suprême une personnalité qui ne ment ni ne triche car elle détient durant cinq ans la créance morale de plusieurs dizaines de millions de bonnes âmes résolues, à travers la fonction présidentielle, à réformer l’État, travailler honnêtement, vivre décemment, moraliser le capitalisme. Et toutes ces sortes de choses.

    Évaluer la crédibilité des principaux candidats à l’élection présidentielle française est donc le pari de l’application web “Le Véritomètre 2012″. Imaginée, construite, peaufinée pour i>TÉLÉ par tous les métiers présents chez OWNI, avec : une chef de projet (Anne-Lise Bouyer), des développeurs (James Lafa, Tom Wersinger), des graphistes (Marion Boucharlat et Loguy) associés à des journalistes de données (Marie Coussin, Grégoire Normand, Pierre Leibovici, Sylvain Lapoix, Nicolas Patte, votre serviteur) et à un meneur de jeu (Guillaume Dasquié). Onze joueurs focalisés sur l’objectif humble et ambitieux de faire rentrer la balle dans le but et de faire hurler la foule.

    Au scalpel

    Le “Véritomètre” est impitoyable et absolument impartial. Les grands rendez-vous médiatiques de François Bayrou, François Hollande, Eva Joly, Marine Le Pen, Jean-Luc Mélenchon et Nicolas Sarkozy y ont été et y seront scrutés mot à mot, analysés au scalpel dans un grand exercice de vérification des faits (“fact checking“), en confrontant en permanence leurs verbes à la réalité des chiffres officiels. Chaque intervention a été et sera découpée quotidiennement en multiples citations qui, toutes, font l’objet d’un examen personnel et finalement d’une sanction : “correct”, “incorrect” ou “imprécis”. Avec neutralité.

    Ainsi, c’est la somme de ces citations qui donne un indice final de crédibilité à chaque discours, entretien ou débat majeurs de la campagne. Et c’est l’ensemble de ces interventions qui attribuent un indice global moyen aux six candidats à l’élection présidentielle, encastrés pour cette occasion sur un classement qui déterminera précisément celui ou celle en qui tient la “ligne de crédit” – corde de la confiance à l’instant donné.

    Et ce n’est pas tout. En sus de ce classement de crédibilité et du “fact checking” de l’ensemble des interventions des six principaux candidats à l’élection, nous avons décidé de rassembler au sein du “Véritomètre” les données majeures de la campagne réparties sur les grands thèmes qui la baliseront. Aujourd’hui, c’est plus de 130 graphiques contextualisés et sourcés répartis au sein de ces thématiques (économie et fiscalité, éducation, immigration, santé, sécurité) qui sont disponibles. Au gré des vérifications et du vent de la campagne, cette masse augmentera afin de constituer une véritable base de données de tableaux de bord de la vie politique du pays.

    Le “Véritomètre” est un site web – qui fonctionne également sur les tablettes et les smartphones – mais c’est aussi un rendez-vous quotidien à l’antenne d’i>TÉLÉ tout au long de la campagne. Un partenariat vertueux entre la principale chaîne d’actualité continue et un média innovant amoureux du journalisme de données. Et deux acteurs portés par l’objectif de faire de cette élection politique, marquée par une crise internationale sans précédent et une volonté mondiale de renouvellement démocratique, un terrain de rencontre et un lieu d’éducation entre ces citoyens partagés entre l’envie d’avoir confiance et l’envie d’espérer un monde meilleur.

    Et pas cynique pour un sou.

    “La vraie politesse n’est que la confiance et l’espérance dans les hommes.” (H.D. Thoreau)


    Illustrations et couverture par LOGUY pour OWNI /-)
    Suivez le “Véritomètre” sur Twitter (et profitez-en pour nous laisser vos remarques) !

    ]]>
    http://owni.fr/2012/02/16/veritometre-factchecking-presidentielle/feed/ 98
    La France entr’ouverte http://owni.fr/2011/12/10/la-france-entrouverte-transparence-open-gov-open-data-etalab/ http://owni.fr/2011/12/10/la-france-entrouverte-transparence-open-gov-open-data-etalab/#comments Sat, 10 Dec 2011 10:16:50 +0000 Nicolas Patte http://owni.fr/?p=89343

    Officiellement, le 5 décembre, la République a donc ouvert ses données publiques lors d’une sauterie organisée sous les lambris de la salle de la Chapelle, en l’Hôtel de Cassini à Paris. Au terme de 817 jours de développement, de 691 624 lignes de code déployées par des partenaires technologiques français le site data.gouv.fr a vu le jour en grandes pompes, mais en version beta.

    Viennoiseries

    Ce jour-là, sémillant comme à son habitude, le jeune (35 ans) directeur du projet gouvernemental Séverin Naudet fait la claque avec Prezi, le logiciel de présentation en ligne qui relègue PowerPoint au Paléolithique moyen. Rompu à l’exercice, il parvient miraculeusement à tenir en haleine le parterre de journalistes en déroulant les écrans de tableur. Aimable, cet ancien producteur des Nada Surf et pratiquant le Kung-fu sait flatter ses collaborateurs, son audience et ses soutiens anonymes, qui participèrent assidûment à “quatre workshops avec l’écosystème Open Data durant les neuf derniers mois”. Et ses sponsors aussi - nombreux - dont on entend les noms de Google et de… Microsoft sans en voir la présence sur les documents distribués avec les viennoiseries.

    Chargé de l’innovation dans l’équipe, Romain Lacombe est au cœur du projet. Co-auteur du rapport Pour une politique ambitieuse des données publiques l’été dernier, lui non plus n’est pas avare de bonnes ficelles pour faire passer cette pilule sucrée nommée “Open Data“. La démonstration (dont il avouera humblement, en privé, que l’idée est de sa pimpante collègue Valérie Schlosser) est aussi brillante que convaincante. En simulant le parcours d’un utilisateur moyen au sein de cette “place de marché globale”, l’ingénieur dévoile en quelques clics combien il est simple d’accéder aux plus basiques éléments de la statistique nationale. Dans les faits, il n’est pas certain que la manipulation sera aussi aisée que celle, balisée, préparée, qui fut offerte à la presse. Néanmoins, la salle frémit ; l’enthousiasme est là, et il est transmis sans quasiment aucun accroc.

    Data martyrisée, mais data libérée

    Reste que dans les documents de travail que nous avons pu consulter, et dont Regards Citoyens s’est également fait l’écho, l’ouverture des données concerne à ce jour, avant tout, la quantité des informations. S’agissant des formats de fichiers utilisés sur le site, l’ouverture est beaucoup moins visible.

    Car sur un peu moins de 300 000 fichiers présents dans la base, seuls 2 600 environ sont au format ouvert (CSV, TXT, SHP, XML, PDF, ODS, HTML et RDF), soit moins de 1%. Le reste, soit quasiment l’intégralité des jeux de données présents sur le site, sont téléchargeables aux formats propriétaires DOC (une trentaine) et XLS. Interrogé par nos soins dans le cadre du Personal Democracy Forum, Romain Lacombe se montre à la fois prudent et catégorique. Non, il n’existe aucune volonté de privilégier le format propriétaire de Microsoft. À ce jour, la priorité de la mission Etalab (nom de l’équipe chargée de ce chantier) est de mettre à disposition l’ensemble des données publiques disponibles, et il se trouve à ce titre que le format Excel est celui qui est le plus utilisé au sein des différentes administrations françaises, “notamment par l’Insee“.

    Rebondissant sur l’anecdote, Lacombe ajoute :

    La mission d’Etalab, c’est coordonner l’ouverture des données publiques des administrations de l’État. Promouvoir l’harmonisation et l’utilisation de formats ouverts et réutilisables en fait partie intégrante.

    En outre, le discours de la Mission est bien goupillé : primo c’est gratuit, ce qui signifie que le fonctionnement du projet ne peut inclure la reconstitution coûteuse de jeux de données inédits. On prend ce qu’on a. Deuxio, le choix des formats de fichiers par les différentes administrations est antérieur à la Mission, on ne peut pas demander à celle-ci de prendre en charge la migration d’une quantité phénoménale de data d’un format propriétaire vers l’univers du libre. Arguant qu’il faut laisser le temps au temps, l’équipe chargée de la libération des données publiques en France a donc choisi de suivre les recommandations indirectes [en] de “l’inventeur du Web”, Tim Berners-Lee : balancer les données en vrac, on verra plus tard pour le reste.

    Vers l’infini, et au-delà

    Etalab n’est donc qu’un moteur de recherche, ni plus ni moins. D’où le soin apporté à bien communiquer sur la mention BETA du site, qui sonne comme une promesse des jours meilleurs – en espérant évidemment que l’État sera plus prompt que Google, spécialiste du genre, à éliminer ce statut qui fleure bon l’inachevé. Un moteur qui recherche dans un catalogue de documents déjà présents, le plus souvent, sur les plates-formes des différents ministères. Etalab peut toujours communiquer (un peu systématiquement) sur la géolocalisation inédite des gares SNCF, la réalité est aride : soit les jeux de données disponibles existent ailleurs, soit de nombreuses données à ce jour réclamées par les chercheurs, les journalistes et les simples citoyens ne sont pas à disposition du contribuable – alors qu’elles lui appartiennent, de facto.

    Un journaliste de données : Data.gouv ? À moi, ça me sert à rien.

    Ceci étant posé, à ce stade, savoir s’il est bon ou pas de pouvoir accéder à ces nombreuses ressources dans un format ou dans un autre semble donc un peu secondaire. Pour plusieurs journalistes de données (“data-journalists“) interrogés dès le lendemain de l’ouverture d’Etalab, pour eux qui manipulent ces fichiers bruts à longueur de journées – sautant d’un tableur à un autre pour tirer la substantifique moelle de jeux de données – un fichier en format ouvert de type PDF peut s’avérer être parfois plus compliqué à exploiter s’il est mal élaboré qu’un fichier dans un format propriétaire construit avec méthode. “Les fichiers PDF, c’est sympa, mais ce sont souvent des fichiers inexploitables, conçus à partir de données ‘propres’ [qu'elles proviennent de formats ouverts ou pas, ndlr], et sur lesquels il faut passer un temps fou pour les remettre en format exploitable. C’est kafkaïen !“, argue même François Bancilhon, le directeur général de Data Publica, dont le métier, entre autres, est justement de (re)mettre à disposition des données exploitables.

    La vraie question qui point au-delà de l’enthousiasme convenu par cette volonté du gouvernement de promouvoir une certaine transparence démocratique, c’est surtout : et après ?

    Top-down et bottom-up sont dans un bateau

    Et après, la question centrale du déploiement et de la promotion de l’Open Data, que nous posions déjà en février dernier, c’est la place du citoyen-contribuable au sein de ce dispositif complexe. Derrière les concepts de stratégie de gouvernance un peu pompeux de “top-down” et de “bottom-up” se cache l’enjeu majeur de la réalisation (ou pas) d’un projet de transparence démocratique à la française. Soit les données s’ouvrent de haut en bas, considérant le citoyen comme un consommateur passif – on ose l’euphémisme – et par conséquent bien incapable de contrôler la qualité et la pertinence de la donnée qui lui est offerte par l’État ; soit les données s’ouvrent de bas en haut, portées par la demande du citoyen envers son administration, en s’assurant que celle-ci a les moyens – et la volonté – d’y répondre. Ce qui, globalement, aujourd’hui, est loin d’être le cas.

    Face au doute, la mission Etalab sort un atout de sa manche : les DataConnexions. Le “moteur de recherche” data.gouv.fr doit évoluer, et il le fera “dès janvier” sous les auspices de l’innovation et l’autorité des têtes bien faites de partenaires déjà programmés, tels Orange, Inria, l’Afnic, l’Epita ou encore Oséo. Véritable “programme de soutien à l’innovation“, il va permettre “d’enrichir Etalab et sortir du simple moteur de recherche qu’il est actuellement“. En clôture du Personal Democracy Forum, Séverin Naudet en remettra d’ailleurs une couche, évoquant même un programme “enrichi d’espaces collaboratifs et d’échanges entre ses utilisateurs et ses producteurs“, un “espace dédié à la mise en valeur des réutilisations des données les plus innovantes“.

    Paroles, paroles

    On a forcément envie d’y croire, à cette ouverture de l’ouverture. D’autant que dans le rapport rédigé par Romain Lacombe, qui tient nécessairement une place importante dans la mise en place du portail gouvernemental – rapport déjà mentionné plus haut – figurent quelques passages qui pourraient inciter à l’optimisme. Comme OWNI le relevait en juillet dernier :

    L’État devra donc réfléchir à la possibilité de passer d’un modèle “à sens unique” (diffusion des données du secteur public vers la société civile) à un modèle d’écosystème où les données de l’État et des collectivités, ouvertes à la société civile, pourraient être enrichies en retour de façon collaborative (“crowdsourcing”).

    Collaboration certaine de centres de recherche et de l’enseignement supérieur, participation éventuelle du citoyen à la constitution de bases de données et d’applications réutilisant vertueusement ces bases de données. On n’est pas loin du but. À condition, là encore, d’aller jusqu’au bout de la démarche de transparence et de coupler ces efforts et ces ambitions d’Open Data avec celles de l’Open Gov – ou “gouvernance ouverte” – comme le rappelle régulièrement l’association LiberTIC à travers son porte-voix Claire Gallon. Une libération des données qui prépare la gouvernance ouverte : là, on en demande peut-être un peu trop à la France.

    Invitée par Barack Obama et Dilma Rousseff, la présidente du Brésil, à prendre siège autour de la table du projet Open Government Partnership (OGP), la France ne fait aujourd’hui pas partie de la cinquantaine de pays [en] s’étant engagés fermement à suivre les intentions vertueuses de cette initiative promue par l’Onu – dont le programme est pourtant alléchant : “engagement à la disponibilité accrue d’informations relatives aux activités gouvernementales”, “engagement à promouvoir la participation civique”, “engagement à faire appliquer par les administrations les normes les plus strictes d’intégrité professionnelle”, ou encore “engagement à intensifier l’accès aux nouvelles technologies à des fins de transparence et de responsabilisation”. Le reste est à l’avenant. Des pays européens comme la Grande-Bretagne, la Grèce, l’Espagne ou l’Italie, la Suède, la Norvège ou encore le Danemark ont franchi le pas vers l’avant que le couple franco-allemand aura décidé de ne pas faire.

    Transparence à la française

    Ce manque de volontarisme apparent de la France serait officiellement une question d’agenda, la demande de l’OGP ayant vraisemblablement été envoyée au cabinet de Christine Lagarde – alors à Bercy – qui n’y aurait pas répondu dans les temps. Selon une source proche du dossier, cette absence remarquée pourrait toutefois s’expliquer par d’autres raisons plus politiques. Articulé autour d’une vision anglo-saxonne de la transparence (Transparency & Accountability), le projet Open Government Partnership pourrait imposer cette vision dans laquelle la frontière entre transparence de l’État et transparence de la vie privée est si ténue qu’elle s’opposerait illico au modèle de protection des données personnelles qui fait loi dans l’Hexagone. Méfiance donc. Méfiance justifiée ? En vérité, les grands principes de l’OGP sont évidemment compatibles avec une vision cocorico de la transparence de l’État ; il semblerait que les inventeurs du clavier AZERTY aient aujourd’hui surtout besoin d’une “transparence à la française”.

    De plus, un engagement de la France dans le programme Obama nécessiterait l’existence d’un agenda politique dédié à la gouvernance ouverte. En Grande-Bretagne, il existe une équipe “Transparency” au sein du Cabinet Office, ainsi qu’un “Public Sector Transparency Board” [en] qui oriente la démarche Open Data depuis 2010, et qui compte parmi ses membres des éminences telles que Tim Berners-Lee et Nigel Shadbolt (les pères spirituels du portail data.gov.uk, en ligne depuis 2009) ou Rufus Pollock de l’Open Knowledge Foundation. En France, la nécessité de relier Open Data à Open Gov semble encore avoir un bout de chemin à faire, malgré l’énergie déployée par Séverin Naudet et son équipe à passer pour de radicaux rénovateurs de la société. Ou même mieux, si l’on en croit Franck Riester :

    L’Open Data, c’est une révolution silencieuse.

    Entre contrepoint, par précaution, on rappellera une récente intervention de David Eaves, célèbre conseiller canadien sur les questions d’ouverture des données publiques :

    Un risque majeur pour l’Open Data, c’est que tout notre travail soit réduit à n’être qu’une initiative pour la transparence et aurait par conséquent pour unique objet de mettre en conformité des structures gouvernementales. Si c’est ainsi que se joue notre destin, je suspecte que dans 5 à 10 ans les gouvernements, désireux de pratiquer des coupes budgétaires, n’inscrivent les portails Open Data dans la liste des économies à réaliser.

    Construit vingt ans avant la grande Révolution française, l’Hôtel de Cassini porte le nom d’une célèbre famille d’astronomes royalistes, savoyards puis français par naturalisation, dont le patriarche Giovanni Domenico fut notamment le premier à diriger l’observatoire de Paris. C’est lui qui découvrit la grande tache rouge de Jupiter, qui mesura la distance de la Terre au Soleil et qui mourut aveugle, après avoir passé sa vie à observer l’infini et tenté d’organiser les étoiles.


    Photos au mobile par Nicolas Patte /-)



    ]]>
    http://owni.fr/2011/12/10/la-france-entrouverte-transparence-open-gov-open-data-etalab/feed/ 17