OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Open data péRennes http://owni.fr/2012/02/21/open-data-perennes/ http://owni.fr/2012/02/21/open-data-perennes/#comments Tue, 21 Feb 2012 08:21:09 +0000 Sabine Blanc http://owni.fr/?p=98903 OWNI s'est un peu installé à Rennes, première municipalité de France à libérer ses données et à adhérer au mouvement open data. C'était il y a un an et demi. Passé le buzz médiatique, il faut tenir la longueur pour se montrer à la hauteur du défi. Un collectif vient de se monter pour sensibiliser tous les acteurs. ]]>

Ce mercredi à Rennes, les mordus de l’open data réunis dans un collectif se retrouvent à la Cantine numérique rennaise sur le thème “politique et citoyens”. Ils se sont réunis pour la première fois en janvier, en complément de l’action de la municipalité, pionnière dans l’ouverture des données en France. Car après le braquage médiatique des projecteurs, l’open data est une course de fond en réseaux combinant acteurs publics, société civile et secteur privé.

Rennes Métropole et la Ville de Rennes ont lancé leur plate-forme en octobre 2010. La ville a une réputation forte en matière d’innovation technique dans le domaine des TIC, ah les premiers pas du Minitel… Qui n’échappe à personne. D’ailleurs, faut-il y voir un symbole, l’open data est rattaché à la direction générale de la communication.

L’open data, made in Rennes

L’open data, made in Rennes

Comment peut-on utiliser les données libérées par Rennes? Quelques exemples sortis du concours de la communauté urbaine ...

Le microcosme – dont OWNI – est en ébullition devant le spectacle des données libérées,  celles du réseau STAR, le service de transport en commun de Rennes Métropole, et du service LE vélo STAR et les données d’informations pratiques géolocalisées de 1.500 organismes publics et associatifs.

Dans le même temps, un concours d’application est organisé, avec une belle dotation de 50 000 euros, et une participation à l’avenant. Au final, 43 applications et services seront développées par un premier noyau de communautés rassemblant codeurs, professionnels et amateurs. Avec de belles réussites parmi les lauréats, comme Handimap, application pour faciliter le déplacement des handicapés mais aussi… des doublons.

Obstacle financier

Passée la phase de communication enthousiaste donc, “il faut s’inscrire dans la durée, pérenniser la collecte des données et des services, mettre en place des éléments d’animation en privilégiant les usages”, explique Bernadette Kessler, responsable du service innovation numérique qui chapeaute le projet open data. Dans ce sens, une première réunion des collectivités impliquées dans l’open data a d’ailleurs eu lieu au début du mois.

Le développement des applications se heurtent à un obstacle financier. Elles ne sont pas rentables à un si petit échelon. Comme le détaillait Silicon Maniacs :

Dans la capitale bretonne, les applications les plus populaires culminent aujourd’hui à 5 000 téléchargements. Tout juste de quoi espérer quelques centaines d’euros de revenus publicitaire par mois, pour un investissement qui s’élève souvent à plusieurs dizaines de milliers d’euros.

Ce n’est pas tout que les applications soient prévues pour intégrer les données d’autres villes, encore faut-il que des données similaires soient disponibles. Claire Gallon estime qu’il faudrait une douzaine de sets identiques. Or “concernant les données des transports, seul Rennes et Bordeaux les ont libérées”, déplore Bernadette Kessler à titre d’exemple. Le marché est donc en cours de construction, au fur et à mesure que les collectivités locales se lancent. Cet automne, la communauté  urbaine du grand Toulouse, Nantes ou bien encore le conseil général de Saône-et-Loire s’y sont mis, entre autres. (voir la carte complète). Sans oublier le portail national Etalab. D’autres ouvertures sont prévues, La Rochelle, Brest ou le conseil général du Maine-et-Loire, etc.

Fallait-il pour autant attendre que plusieurs villes ouvrent leurs données pour se lancer ? Attention usine à gaz, mieux vaut appliquer les principes de la doocracy, faire plutôt que dire. “Ils auraient mis beaucoup plus de temps”, prévient Claire Gallon, de l’association nantaise LiberTIC, acteur historique du mouvement open data en France issu de la société civile. “La plate-forme régionale se heurte à la difficulté du mille-feuille, cela pose problème si un acteur manque”, rajoute Simon Chignard, vice-président de la Cantine numérique, président de l’association Bug et futur papa d’un livre sur l’open data. Ce qui n’empêche pas de construire une plate-forme locale, “intéressante car elle sert d’outil d’animation”, poursuit Claire Gallon.

Pédagogie

Une certaine idée de l’open data

Une certaine idée de l’open data

Le 13 juillet dernier est sorti un rapport produit par 4 élèves de l'école des Ponts ParisTech, intitulé "Pour une ...

Depuis avril, l’entrepôt des données attend une mise à jour, qui devrait arriver dans les semaines qui viennent. “Sur 300 jeux de données libérés en France, 113 l’ont été à Rennes”, tempère Simon Chignard. N’empêche qu’il faut faire face à deux problèmes. D’un point de vue technique, la mise est forme est longue. Et il faut convaincre les services de  libérer les données, long travail de pédagogie pour expliquer les enjeux et introduire cette nouvelle culture, toute en souplesse et réactivité, avec des nouveaux outils de communication comme les réseaux sociaux. Officiellement, “il n’y a pas plus de problème qu’ailleurs, au contraire, il y a un accord général”, avance Bernadette Kessler. Dans la réalité, c’est un peu plus compliqué, comme l’explique Simon Chignard :

Même en étant pro open data, je comprends leurs craintes. Les services publics n’ont pas envie de se faire taper dessus.

Certaines personnes ont encore en mémoire l’exemple de l’application Check my metro, qui avait donné des frissons à la RATP, au point qu’elle avait demandé à Apple de la retirer de l’Appstore : plus efficace que celle de la RATP, elle permettait aussi de signaler les contrôleurs. “Mais si on ouvre pas, cela se fait justement de façon sauvage” ajoute Simon Chignard.

La question de l’animation de la communauté demeure centrale.“C’est encore en discussion, explique Bernadette Kessler. C’est une grosse organisation et il faut faire le suivi des applications derrière. Ce ne sera pas en 2012 pour des questions de budget et de temps. Pourquoi pas le faire avec une autre ville ou lancer un appel à projet.”“À Washington, ils ont organisé deux concours puis plus rien, détaille Simon Chignard. En revanche, à New York, ils en sont à trois concours. On peut faire des petits challenges, par catégorie, par exemple.”

Pour que l’open data poursuive son essor, il faudrait aussi que les associations et les entreprises jouent le jeu. Or Rennes a fait un choix : ce n’est pas à eux de prendre en charge la sensibilisation de ces acteurs. Bernadette Kessler justifie :

Je ne peux pas me substituer au milieu associatif et au mouvement de l’open data. À Rennes, la société civile n’est pas forcément au fait, il faudrait qu’il y ait un LiberTIC à Rennes.

Prendre le relais

Et ça tombe puisque depuis cet hiver, la société civile prend le relais, sous la forme de ce collectif qui organisera la rencontre de ce mercredi à la Cantine numérique. Il se passe donc un processus inverse à celui observé à Nantes, où une association forte, LiberTIC, dont la notoriété dépasse la région, avait pris les devants. “Une vingtaine de personnes étaient venues à la première réunion. Nous avons lancé des invitations aux élus pour l’événement de mercredi, plusieurs ont répondu”, se réjouit Léa Lacroix. La jeune femme a une double casquette, qu’elle ne mélange pas : face pro, elle effectue un stage au service open data ; face perso, elle s’occupe de l’association.

“Après le concours, “il y a eu un moment de flottement”
, constate Simon Chignard. Le relais est en train d’être pris par des gens qui ne codent pas. Il y a par exemple des gens de l’économie sociale et solidaire.” Et aussi des journalistes. Non pas issus de la presse locale, semble-t-il plus préoccupée par les apéros Facebook géants que sur les données du budget. Des journalistes indépendants vont bientôt s’attaquer à ce nouveau terrain, rassemblés sous le nom de Rennes 1720. Une allusion au grand incendie qui ravagea la ville, prélude forcé à une modernisation. Mieux vaut prendre les devants, bis.


Dans le cadre de la présidentielle, OWNI, en association avec Regards citoyens et La Cantine, a commencé à dresser une liste de courses de données dont nous avons besoin pour mener à bien nos travaux de datajournaliste : Candidata, que vous pouvez vous aussi enrichir. Faites vos jeux (de données) !

Illustrations sous licences Creative Commons par Opensourceway et justgrimes

]]>
http://owni.fr/2012/02/21/open-data-perennes/feed/ 14
Entretien avec Simon Rogers, le Monsieur Data du Guardian http://owni.fr/2010/11/14/entretien-avec-simon-rogers-le-monsieur-data-du-guardian/ http://owni.fr/2010/11/14/entretien-avec-simon-rogers-le-monsieur-data-du-guardian/#comments Sun, 14 Nov 2010 10:03:27 +0000 Ziad Maalouf (Atelier des Médias) http://owni.fr/?p=35623 Il y a quelques jours, L’Atelier des Médias de RFI a profité du passage par Paris de Simon Rogers, “Monsieur data” au Guardian pour l’interroger sur son parcours et sur cette nouvelle tendance du journalisme : le data-journalisme ou journalisme de données. Simon Rogers édite le Data Blog du Guardian. Il a participé pour son journal à l’exploitation des fuites de Wikileaks sur l’Afghanistan et sur l’Irak. Malgré sa modestie et la simplicité avec laquelle il expose ses points de vue, c’est certainement une des principales personnalités et un des principaux moteurs du data-journalisme et de la visualisation de données dans le monde. Ci-dessous, une retranscription aussi fidèle que possible de cet entretien que vous pouvez également écouter en VO ou en VF dans les deux players sur le site de l’Atelier ou à télécharger (VF ou VO).

Ecoutez ici l’interview en VF:

Atelier des Médias (ADM) : Pour commencer, est-ce que vous pouvez nous présenter votre blog et nous parler de votre parcours?

Ce que nous faisons c’est publier des ensembles de données brutes. On les met à disposition du monde et on demande à notre public de s’en servir, d’en faire quelque chose. Parallèlement, on dirige un service au sein du Guardian qui analyse et rend exploitable des données par nos journalistes, c’est ce qu’on appelle en fait du data-journalisme, du journalisme de données : transformer une masse de données en information, en histoire qu’on peut raconter à nos lecteurs. J’ai commencé à travailler au Guardian le 10 septembre 2001, c’était mon premier jour ! Le lendemain, j’ai vu le monde devenir complètement fou. Il se passait tellement de choses en même temps qu’on a eu besoin de produire des infographies pour les expliquer. Il y avait trop d’infos, de données, à gérer pour confier cela uniquement à des graphistes. Je me suis donc retrouvé à bosser sur des graphiques avec des designers pour expliquer l’information avec des visuels. C’est comme cela que j’ai commencé à collecter des masses de données.

Par la suite, en mars 2009, le Guardian a lancé sa plateforme ouverte (open platform) destinées aux développeurs et aux technophiles. Elle leur permet d’interroger les données du Guardian et de réaliser des applications à partir de ces données. Par exemple, on peut fabriquer une application qui permet, quand on est dehors, d’entrer notre adresse et l’application nous dit quels sont les restaurants alentours avec les critiques du Guardian. C’est cela l’idée de la plateforme ouverte. Au moment où le journal a proposé ce service d’accès à ses données, on a pensé que ce serait bien d’ouvrir parallèlement un data blog, un blog de données. On a publié quelques paquets de données pensant que cela intéresserait un petit nombre de développeurs. En fait cela a vite décollé, c’est devenu un blog qui reçoit deux fois plus de visites que le département officiel des statistiques du Royaume Uni. Beaucoup de gens visitent notre site parce qu’ils cherchent des informations brutes sur, par exemple, les émissions de carbone dans l’ensemble du pays ou quelles aides a reçu le Pakistan en provenance de quel pays après les inondations. En fait, tout peut être envisagé comme des données.

On a par exemple publié tous les mots utilisés par les Beatles dans leurs chansons. Combien de fois ont-ils employé le mot « love » (amour) ? 613 fois figurez-vous. Tout peut être transformé en données. Et ce qu’il y a de magique, c’est qu’une fois que vous avez transformé quelque chose en chiffres et en tableaux, les gens peuvent s’en servir pour faire des visualisations, des graphiques et des analyses.

ADM : Quand on vous écoute, on a l’impression que c’est presque par chance ou par hasard que vous avez développé le journalisme de données dans votre journal, alors que c’est un phénomène qu’on voit prendre de l’ampleur dans beaucoup de médias. Comment cela s’est passé concrètement ?

En fait quand on a mis en ligne le data blog en mars 2009, c’était une thématique encore très confidentielle. Après cela, le gouvernement américain a lancé data.gov, et puis cela s’est étendu au monde entier. Depuis un an, de plus en plus de gouvernements publient leurs données. Ils ont maintenant une vraie pression qui les incite à rendre leurs données publiques dans des formats exploitables par tous. Plutôt que d’utiliser du .pdf, qui est le format traditionnellement utilisé par les gouvernements, on leur demande des formats exploitables comme le .csv ou .xls. En résumé, on a eu de la chance et puis il faut avouer qu’il y avait une tendance quand même. Les gens veulent de l’information brute.

Mon grand-père veut savoir le prix du pétrole, où puis-je trouver cette information ? Et comment savoir si ce sont des données fiables ? Par exemple au Royaume Uni, le PIB est une donnée très importante, c’est publié tous les mois. Si vous allez voir sur le site des statistiques officielles, vous allez trouver 9 ou 10 manières différentes de calculer le PIB. Comment savoir quelle est la bonne méthode ? Ça c’est une question qu’on s’est déjà posée au Guardian à laquelle on a déjà trouvé des réponses parce qu’on en a besoin, donc on partage notre savoir faire.

ADM : Comment vous voyez la relation du journalisme de données avec le journalisme en général ? Est-ce que cela doit être une partie du journalisme ou est-ce que cela doit être un peu partout ?

De mon point de vue, chaque sujet comporte une dimension « données » en lui. D’un point de vue technique, ce n’est pas si compliqué, ce doit être un outil de plus pour les journalistes. On ne doit pas envisager cela comme un machin insurmontable et flippant. C’est juste une autre manière d’accéder à l’information. En réalité, la plupart des choses que l’on fait sont très simples. On utilise des logiciels que tout le monde possède. On a tous un tableur sur notre ordinateur, Excel, OpenOffice ou quoi que ce soit d’autre. C’est un outil aux capacités extraordinaires. Pas besoin d’être mathématicien ou statisticien. Tout ce qu’il faut faire c’est traiter cela comme toute autre information : il faut douter, interroger et se poser des questions de base.

Carte géolocalisée et chronologique des bombes artisanales en Afghanistan

ADM : Une autre partie du journalisme de données, c’est ce qu’on appelle la visualisation, la manière de montrer ces données. Quelle relation vous voyez entre les données et la visualisation ?

Ce qui est intéressant là dedans c’est que par le passé, on avait tendance à garder les données pour soi. Aujourd’hui, on les publie et par conséquent, notre rôle est d’aider les gens à les interpréter, à les analyser, à les montrer. Dans certains cas, un petit tableau suffit ou même la mise en avant d’un chiffre clé ou la comparaison entre un chiffre et un autre. Parfois ce simple travail est suffisant mais, dans d’autres cas, on veut vraiment montrer ces chiffres physiquement. Pour ce faire, le mariage de la visualisation et des données peut avoir un impact très fort. Par exemple, dans le cas des fuites de wikileaks, on a cartographié toutes les bombes artisanales en Afghanistan de manière chronologique. Grâce à  cette visualisation, on comprend comment leur usage s’est multiplié et pourquoi c’est devenu un paramètre essentiel de la guerre. Seule la visualisation permet de montrer cela.

Maintenant, est-ce qu’il faut être un graphiste pour faire des visualisations ? Il y a plusieurs approches. Il y a des personnes qui sont avant tout journalistes et qui réalisent des visualisations comme David McCandless et son « Information Is Beautiful ». Il a une formation de journaliste, il n’est pas graphiste mais il a produit de très belles visualisations qui expliquent bien les choses. En revanche, il arrive qu’on ait vraiment besoin d’un graphiste pour réaliser une visualisation complexe.
Il existe, par ailleurs, des outils très simples, accessibles en ligne, qui permettent de réaliser des visuels : Manyeyes, Timetric et même Google propose des outils de visualisation que chacun peut utiliser pour raconter une histoire.

ADM : Pour clore cet entretien Simon Rogers, je voudrais évoquer avec vous deux tendances assez fortes aujourd’hui. La première concerne l’Opendata, on parle aussi d’open governement, c’est un mouvement qui incite les institutions et les gouvernements à ouvrir et rendre publiques le plus de données possibles. Qu’est-ce que vous pensez de cela ? Quelles sont vos attentes ?

C’est une évolution très intéressante. Il y a encore un an, on militait pour accéder aux données et aujourd’hui on croule sous les données que nous recevons. Par exemple, au Royaume Uni, le Trésor avait une base de données importante appelée COINS qui répertorie tout ce qui est dépensé par le gouvernement, dans le moindre détail, il y a des millions d’informations. Le nouveau gouvernement a rendu ces données publiques, on avait beaucoup milité pour ça. Il y a un an, on voulait accéder à ces infos, aujourd’hui on les a et il s’agit maintenant d’aider les gens à s’en servir, à les analyser. Donc ce qu’on a fait avec la base de données COINS, on a choisi le meilleur format, le .csv. On a choisi la meilleure période et les départements les plus faciles à comprendre et on a rendu l’ensemble plus intelligible.

Pour moi, le rôle des journalistes va, de plus en plus, ressembler à ça. Rendre les données accessibles et compréhensibles. Au Guardian, on propose aussi un service qui s’appelle World Governments Data Search, recherche de données gouvernementales dans le monde. Si vous tapez World Government data dans Google, on sort en premier. En fait notre service répertorie toutes les publications de données gouvernementales dans le monde et vous permet par exemple de faire une recherche sur le mot crime, vous aurez alors des chiffres des USA, du Royaume Uni, de Chicago, de Californie, de France euh non d’Espagne pas de France, de Nouvelle-Zélande etc…et vous pouvez aussi comparer ces chiffres. L’enjeu maintenant c’est de trouver une bonne manière de combiner toutes ces données pour permettre aux gens de les utiliser. Parce que les gens veulent faire des choses avec ces chiffres, chez eux, à la maison et on veut les aider pour faire partie de ce mouvement.

Dépenses gouvernementales du Royaume Uni par département 2009-2010

ADM : Et comment vous pourriez convaincre des États de rendre leurs données publiques ou des populations à inciter leurs États à le faire ? Qu’est-ce que ça apporte à des sociétés ?

Ce qu’il faut comprendre c’est que les gouvernants n’ont rien à perdre. Aux USA, au Royaume Uni, en Australie ou en Nouvelle-Zélande, le monde ne s’est pas écroulé parce que les données gouvernementales ont été rendues publiques ! Cela a tout simplement rendu les choses plus ouvertes et plus transparentes à une époque où on ne fait plus confiance aux politiciens, on ne fait plus confiance à la politique. Vous voulez qu’on vous fasse confiance ? Il faut être ouvert. Rendre ses données publiques c’est essentiel pour cela, il faut le faire dans un format pratique pour encourager les gens à s’investir.

Quand Data.gov.uk a été mis en ligne, ils ont impliqués plein de développeurs pour permettre aux gens d’accéder à cette masse d’infos, pour moi c’est le rôle du gouvernement de faire ça. Il y a beaucoup d’exemples aujourd’hui que ceux qui militent pour l’ouverture des données peuvent utiliser pour montrer que les pays ne se sont pas effondrés à cause de l’open data. L’open data ne peut que renforcer la foi des peuples dans leurs gouvernants.

ADM: Pour finir, je voudrais parler avec vous de Wikileaks, ce site qui se sert de lanceurs d’alertes, de personnes qui divulguent des informations secrètes dans le monde et qui les diffuse. Vous avez été impliqués dans ce qu’on appelle les War logs en Afghanistan (et en Irak), qu’est ce que vous pensez de cela ?

C’est une nouvelle tendance du journalisme. Les journalistes vont devoir de plus en plus gérer des masses de données et trouver des infos et des histoires dedans. A l’avenir, un journaliste ne pourra plus dire « je ne m’occupe pas de tableurs… », cela fera vraiment partie de son boulot. Au Guardian, cela a vraiment changé notre manière de travailler. Aujourd’hui les données sont une partie intégrante de notre job. Maintenant, je pense que les infos de Wikileaks sont excellentes pour comprendre ce qui se passe. Si vous regardez les rapports divulgués sur l’Afghanistan, ils montrent à quel point cette guerre est difficile. Cela raconte notamment comment des gens tentent d’apporter de l’aide humanitaire dans un village et cela n’intéresse personne, parce que les villageois ont peur de la corruption etc…Il y a ce genre d’infos où on voit que les militaires se sentent responsables du bien être des populations locales. On finit en fait par se demander pourquoi l’armée ne publie pas ces rapports.

Il n’y a rien de sensationnel, ça ne change même pas la manière dont on perçoit cette guerre. Cela fait en tous cas de la guerre en Afghanistan une des plus documentées de l’histoire, grâce à ces fuites. Est-ce que cela a nuit aux États-Unis ? Pas vraiment je pense. Le gouvernement américain nous a aidé à retirer les noms cités dans les rapports pour ne pas mettre les personnes en danger.

ADM : Et sur le futur du secret, des choses secrètes, est-ce que cela pose une vraie question pour vous ?

Cela va être intéressant de voir comment les autorités gèrent cela. Il y a eu des menaces mais rien de très concret. Et puis il va y avoir bientôt de nouvelles lois de transparence et de protection du journalisme en Islande. Cela va devenir un abri pour les journalistes. Sur le même modèle que les paradis fiscaux, on aura des paradis journalistiques, des lieux protégés pour la liberté sur internet. Les gens iront là-bas pour publier des données sensibles.
En tous cas, Wikileaks a complètement changé le rapport que l’on a avec les documents que l’on produit, géographiquement notamment. Je pense en tous cas qu’à l’avenir ce type de fuites ne va faire que se multiplier.

>> Interview initialement publiée sur l’Atelier des Media de RFI.

>> Crédit photo : Jessica Chekroun (la photo n’est pas en Creative Commons)

]]>
http://owni.fr/2010/11/14/entretien-avec-simon-rogers-le-monsieur-data-du-guardian/feed/ 9
#Opendata 1/2: ||Les bons ingrédients pour une ouverture des données réussie http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/ http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/#comments Mon, 31 May 2010 06:47:14 +0000 Caroline Goulard http://owni.fr/?p=16981 Un consortium d’ONG et de bailleurs de fonds internationaux a récemment commandé un rapport sur l’open data sous l’égide de la Transparency and Accountability Initiative.

L’étude finale, l’Open Data Study, rédigée par Becky Hogge, a été publiée en mai 2010 par l’Open Society Institute (institution fondée par George Soros). Elle explore les politiques d’ouverture des données publiques aux États-Unis et au Royaume-Uni, et cherche à en tirer des conséquences pour mener des initiatives similaires en dehors des démocraties occidentales.

A l’origine de cette démarche, il y a la conviction que l’ouverture des données publiques peut apporter d’importants atouts économiques et sociaux. Pour l’auteur du rapport, rendre disponible des données géographiques, budgétaires, sociales dans un format permettant leur réutilisation, permet d’améliorer les services et de créer de la croissance économique.

Data.gov & data.gov.uk : quelles leçons en tirer ?

Les Etats-Unis et le Royaume-Uni ont récemment adopté des démarches volontaristes sur l’opendata en lançant les deux portails www.data.gov et www.data.gov.uk.

L’exemple britannique : data.gov.uk

Data.gov.uk est un portail donnant accès à un ensemble de données collectées et entretenues par le gouvernement et les institutions publiques britanniques. Actuellement data.gov.uk héberge environ 3 200 bases de données et une cinquantaine d’applications dérivées.

Comment en est-on arrivé là ?

Premier geste fondateur en direction de l’opendata : en juin 2009, le Premier Ministre britannique Gordon Brown annonçait que Tim Berners Lee s’apprêtait à rejoindre son gouvernement comme conseiller.

Mais l’arrivée de celui présenté comme le principal inventeur du World Wide Web ne suffit pas à expliquer le mouvement d’ouverture des données au Royaume-Uni.  Depuis déjà plusieurs années, le gouvernement britannique subissait une pression de la société civile, en particulier d’un groupe de responsables de sites web politiquement engagés, pour délivrer ses données de façon ouverte, dans un format lisible par les machines.

Face à ces acteurs politiques et citoyens mobilisés pour l’ouverture des données, quelques agences gouvernementales ont opposé une forte résistance. En particulier, l’agence de cartographie, l’Ordonance Survey (l’équivalent de notre Cadastre), car une partie de son financement provenait justement de l’exploitation commerciales des données publiques géographiques.

Data.gov.uk a été officiellement lancé en janvier 2010. Le site a été perçu comme une victoire de la communauté pro-opendata. Le Royaume-Uni voit désormais fleurir les sites web et les applications basées sur les données libérées, en particulier sur les données cartographiques liées aux codes postaux, autour de la dernière élection générale de mai 2010.

L’exemple américain : data.gov

Data.gov est un portail du gouvernement américain donnant accès aux bases de données crées par le gouvernement fédéral américain et par ses agences.

Il a été lancé en 2009, avec deux objectifs.

Tout d’abord, la volonté d’impulser une communication bottom-up et de faire émerger de nouvelles idées de gouvernance, en renforçant la transparence des services publics, la participation des citoyens, et la collaboration entre l’Etat et ses administrés.

L’ouverture des données publiques a aussi été pensée comme un moyen d’améliorer l’efficience des agences gouvernementales.

La plupart des agences gouvernementales américaines numérisaient déjà les données dont elles disposaient. Data.gov a été conçu comme un outil pour les aider dans leurs missions de service public.

Comme au Royaume-Uni, l’influence de la communauté des civil hackers a joué un rôle important. Ces citoyens engagés ont réutilisé dans leurs sites web des bases de données publiées par le gouvernement pour les présenter de façon enrichie et plus accessible.

Peut-être en réponse à ces initiatives citoyennes, les CIOs (Chief Information Officers) de certains Etats américains –dont le district de Columbia- ont commencé à rendre publiques leurs bases de données. C’est d’ailleurs le directeur technique du district de Columbia, Vivek Kundra qui a été par la suite embauché par Obama au poste de CIO fédéral en mars 2009.

Ces premiers pas en faveur de l’opendata ont trouvé un écho important lorsque le Président Obama a pris ses fonctions à la Maison Blanche. Il a justement consacré un de ses premiers memorandums à l’ouverture et à la transparence.

Après une phase de recherche et développement, pendant le printemps 2009, data.gov a été lancé le 21 mai 2009.

Il contenait initialement 76 bases de données provenant de 11 agences publiques. Craignant que l’élan vers l’opendata ne retombe et que trop peu de données ne soient publiées, Obama a adopté un décret, le 8 décembre 2009, obligeant chaque agence gouvernementale à publier au moins 3 bases de données de qualité.

Aujourd’hui, la comparaison entre les deux plateformes – data.gov.uk et data.gov – ne joue pas en faveur des Etats-Unis : le portail britannique propose déjà trois fois plus de données, alors que son homologue américaine a six mois d’avance. Et data.gov.uk a fait le choix de formats standardisés favorisant le développement du web sémantique, à la différence de data.gov.

Je vous renvoie aux articles de Flowing Data et RWW pour de plus amples comparaison entre ces deux plateformes.

Les trois acteurs clés de l’ouverture des données

L’Open Data Study tire une leçon intéressante de ces observations : aux Etats-Unis comme au Royaume-Uni la conduite de l’ouverture des données a nécessité l’intervention de trois catégories d’acteurs :

  • La société civile, et en particulier un petit groupe de « civil hackers » très motivés
  • Des fonctionnaires gouvernementaux de peu d’influence, mais compétents et engagés
  • Les hautes sphères du pouvoir, guidées soit par une pression extérieure (dans le cas du Royaume-Uni), soit par le climat réformateur d’une toute nouvelle administration (dans le cas des États-Unis)

En écho aux propos tenus par Tim Berners Lee dans l’entretien qu’il a accordé à l’auteur de cette étude :

It has to start at the top, it has to start in the middle and it has to start at the bottom.

1/Dans une logique bottom-up, la société civile a imposé des exemples de bonnes pratiques et à mis sous pression les gouvernements. Ainsi, data.gov.uk et data.gov n’auraient sans doute jamais été créées si des citoyens engagés n’avaient pas déjà développé des applications telles que TheyWorkForYou.com (au Royaume-Uni) ou GovTrack.us (aux États-Unis), des cartes des accidents de vélo, ou des sites répertoriant les dépenses publiques.

TheyWorkForYou et GovTrack.us ont tous les deux été lancés en 2004, par des groupes de bénévoles qui voulaient faciliter le suivi de l’activité politique des parlementaires. Tous deux s’appuient sur des données déjà publiées sur des sites officiels tels que le Hansard au Royaume-Uni ou celui de la Library of Congress aux Etats-Unis, pour les présenter dans un format plus accessible, avec un moteur de recherche, et un espace de débat.

Les auteurs de ces deux applications sont donc passés outre les copyrights protégeant les bases de données originales. GovTrack.us agit également comme une plateforme de données pour d’autres sites citoyens.

Les citoyens bénévoles à l’origine de TheyWorkForYou (régroupé sous le nom de mySociety, fondée par Tom Steinberg), et de GovTrack.us (regroupés sous le nom de Civic Impulse, fondée par Josh Tauberer) s’identifient eux-même come des « civic hackers », c’est à dire des personnes qui utilisent les outils des technologies numériques pour enrichir la vie citoyenne ou résoudre des problèmes civiques. Ils vivent leur activité comme un engagement démocratique.

En France, nous avons aussi nos « civic hackers », chez Regards Citoyens, les éditeurs de NosDéputés.fr (notre équivalent du TheyWorkForYou britannique) et chez la Quadrature du Net (“La loi, c’est du code, donc ça se hacke“).

2/ Les bonnes pratiques citoyennes n’auraient pas suffit si elles n’avaient pas trouvé un relais auprès des fonctionnaires des échelons intermédiaires du pouvoir. Ces acteurs avaient eux aussi un intérêt à l’ouverture des données publiques, dans laquelle ils voyaient une opportunité pour rendre leur travail plus efficient et mieux compris.

Au Royaume-Uni plus particulièrement, la société civile et la communauté des administrateurs publics se sont alliés autour des problèmes de licences posés par la ré-utilisation des données. Leur coopération leur a permis de construire solide base d’expérience et de buts communs. En 2007, le Cabinet Office (l’organe chargé de coordonner les stratégies entre les différents ministères) a commandé un rapport sur l’ouverture des données publiques à Tom Steinberg, le fondateurs de TheyWorkForYou, et à Ed Mayo, le directeur du National Consumer Council (l’organe chargé de représenter les intérêts des consommateurs). L’étude finale, la Power of Information Review, met en avant les opportunités tant démocratiques qu’économiques de l’opendata.

La retombée la plus marquante du travail réalisé par Steinberg et Mayo sur la Power of Information Review a sans doute été le lancement du concours Show Us a Better Way. Un prix de 20 000£ a été mis en jeu pour le meilleur projet de réutilisation des informations du secteur public. Le concours a attiré environ 500 contributions, et a été gagné conjointement par 14 projets, dont le site WhereDoesMyMoneyGo qui rend compte de comment sont utilisés les impôts collectés par les pouvoirs publics.

L’émulation citoyenne autour de ce concours a constitué un argument formidable pour convaincre les agences gouvernementales de libérer leurs données, en particulier l’Ordonnance Survey de renoncer à monétiser ses données géo-spatiales (sujet déjà traité sur mon blog ici).

3/ L’expertise de ces fonctionnaires et administrateurs publics, a donné confiance aux leaders politiques dans la réussite de stratégies d’ouvertures des donnés publiques. Les dirigeants ont ainsi eu les moyens et la motivation pour passer outre l’inertie institutionnelle.

Le rôle des hautes sphères du pouvoir a surtout consisté à donner une dimension politique et démocratique à des problématiques jusque là perçue comme très technologiques.

L’existence de données : la base du succès

A côté de ce schéma à trois poles d’influence –société civile / administration publique / leaders politiques – l’Open Data Study relève un dernier facteur de réussite des stratégies d’opendata aux Etats-Unis et au Royaume-Uni : l’existence de données publiques nombreuses et fiables. Il y a dans ces pays une longue tradition de collecte de données publique, menée par des agences des fonctionnaires très compétents, disposant d’une relative autonomie et de ressources.

La France partage se solide socle de donnée avec les pays anglosaxons grâce à l’Insee. Le blog de Captain Dash consacre un très bon post à ce sujet, je vous conseille donc de lire “Insee… doesn’t ring a bell? That’s France at its top

Dernière remarque soulevée par l’Open Data Study : l’absence des utilisateurs finaux dans le processus de mise en place de l’ouverture de données. Bien sûr, l’audience des applications telles que TheyWorkForYou ou GovTrack.us ont joué un rôle, mais le plus souvent la notion d’utilité publique à pris le dessus sur la prise en compte des utilisateurs.

Lire la suite de cet article: “L’internationale de l’Opendata?”

Illustrations CC Flickr par Eric Fischer et daveypea

]]>
http://owni.fr/2010/05/31/opendata-12-data-gov-ou-data-gov-uk/feed/ 2
#opendata 2/2: L’internationale de l’opendata ? http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/ http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/#comments Mon, 31 May 2010 06:47:04 +0000 Caroline Goulard http://owni.fr/?p=17022 Cet article continue l’analyse du rapport de Becky Hogge publié par l’Open Society Institute. On s’intéresse ici aux conditions qui font qu’un pays décide de libérer ses données.

Conditions d’exportabilité de l’ouverture des données

La seconde partie du rapport de Becky Hogge étudie les conditions de réussite d’une transplantation de la stratégie d’ouverture des données en dehors des démocraties occidentales.

Pour cela l’auteur de l’étude a conduit des entretiens avec un grand nombre d’experts – juristes, responsables de systèmes informatiques, spécialistes de la transparence fiscale ou de la gestion budgétaire, représentants de la société civile, etc., – de différents pays -Inde, Kenya, Tanzanie, Afrique du Sud, etc.-.

Grille de questionnement pour évaluer les possibilités d’implantation d’une stratégie d’opendata

Le rapport préconise bien sûr de porter attention aux trois principaux niveaux d’influence dans la première partie de cet article :

  • Les sociétés civiles locales s’approprient-elles déjà les bases de données gouvernementales existantes ? Quelle est la culture technologique de la société civile ? Existe-t-il des groupes de « civic hackers » ? Existe-t-il des mouvements anti-corruption dans le pays ? et peuvent-ils devenir des partisans de l’opendata ?
  • De quelle influence disposent les échelons intermédiaires du pouvoir ? S’intéressent-t-ils à l’ouverture des données ? Y ont-ils intérêt ? Où en est l’e-gouvernement ? Les sphères intermédiaires de l’administration sont-elles en relation avec la société civile ?
  • Les dirigeants politiques considèrent-ils l’opendata comme une source d’avantage politique ? Quels leaders politiques gagneraient à l’ouverture des données ? Lesquels y perdraient ?

Il introduit également un quatrième acteur : les bailleurs de fonds internationaux.

  • Quel niveau d’implication des bailleurs de fond internationaux dans le budget du pays ? Les donateurs sont-ils eux même transparents sur l’argent versé ? L’administration rend-elle des comptes sur l’utilisation des aides internationales ? La transparence a elle été posée comme condition à l’octroi d’aides financières ?

Il insiste sur l’importance de la collecte des données et leur statut juridique.

  • Existe-t-il une collecte de données publiques institutionnalisée ? Les données sont-elles mises à jour régulièrement ? Sont-elles numérisées ? Le sont-elles dans un format ouvert et lisible par les machines ? Sont-elles protégées par copyrights ? Font-elles déjà l’objet de transactions commericales ? Quelles sont les lois du pays concernant la propriété intellectuelle ?

Enfin, le rapport recommande d’étudier le besoin de données des utilisateurs finaux.

  • A quel point la presse est-elle libre dans le pays ? Trouve-t-on facilement de l’information sur l’activité gouvernementale sur Internet ? Existe-t-il des groupes de citoyens qui pourraient avoir usage des données libérées ? Quel est le niveau de pénétration de l’internet et du téléphone mobile dans le pays ?

Les barrières à l’instauration d’une politique de libération des données

L’Open Data Study pointe également certaines réserves. Tout d’abord, une partie des experts interrogés ont souligné que dans certains pays aux législations fragiles ou récentes, une stratégie de libération des données publiques pourrait parasiter le combat pour le droit à l’information.

D’autres ont fait valoir que dans les pays en voie de développement économique, l’ouverture des données publiques était loin d’être un levier prioritaire pour améliorer la croissance.

Beaucoup d’experts sont sceptiques sur la disponibilité des données publiques, et dans un format numérique. Il n’existe pas partout de gros volumes de données qu’il suffirait de libérer. Bien souvent la matière première fait défaut, elle n’existe pas où elle est de mauvaise qualité (format papier, problèmes orthographiques, approximations).

L’International Budget Partnership rapporte que 80% des pays ne rendent pas suffisament compte de leurs dépenses budgétaires. Cet organisme militant pour l’accès du public aux données budgétaire fournit aussi une carte des pays les plus transparents.

Déterminer des fenêtres d’opportunités

Aux Etats-Unis comme en Grande-Bretagne, l’ouverture de portails de données publiques a été favorisée par l’agenda politique.

L’Open Data Study passe en revue quelques typologies de la vie politique d’un pays qui se prêtent particulièrement bien à une stratégie d’ouverture des données publiques :

  • Le contexte d’une toute nouvelle administration portée au pouvoir par un mandat populaire pour remplacer un régime corrompu ou politiquement désavoué peut jouer en faveur de l’opendata.
  • Dans les pays en rapide croissance économique, l’ouverture des données publiques peut être perçu par les dirigeants comme un moyen de lutter contre la corruption, obstacle à l’efficience économique (le rapport prend l’exemple de la Chine)
  • La pression régionale peut aussi jouer un rôle, par exemple en Malaisie qui a conscience d’être à la traîne de ses voisins en matière de transparence.
]]>
http://owni.fr/2010/05/31/opendata-22-linternationale-de-lopendata/feed/ 5
La datavolution est-elle possible? http://owni.fr/2010/05/30/la-datavolution-est-elle-possible/ http://owni.fr/2010/05/30/la-datavolution-est-elle-possible/#comments Sun, 30 May 2010 16:34:41 +0000 Gilles Babinet (trad. Nicolas Kayser-Bril) http://owni.fr/?p=16841 Il semblerait qu’une grande partie de la population pense que les données sont loin d’être devenues accessibles à tous. Les données les plus intéressantes seraient cachées dans des datacenters très protégés. L’argument ultime est que même si les données étaient disponibles, rien n’indique qu’elles seraient utilisées par tous.

Ces arguments sont en partie vrais. Nous les avons résumés en listant les principaux nœuds restant à défaire avant que l’on assiste à une véritable appropriation des données par le grand public, et à leur utilisation par le plus grand nombre.

1. Trouver un standard commun

Les données sont encore stockées dans une foultitude de formats différents. Des essais ont déjà été faits pour standardiser les données dans des formats communs, mais le moins que l’on puisse dire est que ces efforts n’ont encore rien donné.

Résultat : quiconque veut utiliser des données doit d’abord les reformater pour son usage personnel. Ca fait partie du boulot que fait data.gov, entre autres. On a plusieurs raisons d’être optimistes. Non pas que les données vont devenir standardisées, mais plutôt qu’on dispose de plus en plus d’outils nous permettant de passer d’un format à l’autre automatiquement.

Sur un autre sujet, et contrairement aux idées reçues, les données sont largement disponibles. On peut avoir accès à tout types de données sur la circulation, la météo, la pollution, la population, les exportations/importations de marchandises, l’énergie etc. Sur ce sujet, lisez l’article The Data Deluge de The Economist.

2. Faciliter l’accès aux données

Bien qu’il y ait des quantités quasi-illimitées de données sur le web, les trouver n’est jamais facile. Il n’y a pas de véritable moteur de recherche ou de ‘supermarché de la donnée’ pour les indexer ou les entreposer. Quelques initiatives, la plus connue étant data.gov, tentent de résoudre le problème, mais on n’a toujours pas de Datapedia.

3. Rendre les données divertissantes

La donnée, c’est souvent ennuyeux. Rechercher ses amis sur Google ou Twitter reste beaucoup plus divertissant. Très peu de gens passent leurs weekends à jouer avec des séries de données sur Excel. Pour que chacun puisse jouer avec des données, on a besoin d’interfaces très faciles à utiliser, qui devront plaire tout autant à notre cerveau droit (l’émotionnel) qu’au gauche (le rationnel).

Ca veut dire que de nouveaux outils doivent faire leur apparition, et qu’ils soient révolutionnaires par rapport à ce qui existe aujourd’hui. Surtout, ça signifie que l’ère des données sur tableur doit se finir, pour être remplacée par celles des données visualisées, ou, en d’autres termes, à une ère de représentation graphique.

Many Eyes, une première étape pour jouer avec les données. Ci dessus, une visualisation interactive de la répartition de l'aide US.

Surmonter ces trois obstacles est indispensable si l’on veut que les données soient au cœur de la prochaine révolution internet. Cette évolution nécessiterait aussi que les données soient plus acceptées culturellement parlant, c’est-à-dire que nous comprenions que ce n’est pas parce qu’une information est dans une base de données qu’elle est nécessairement difficile à comparer ou utiliser. Il serait urgent de s’attaquer à ce problème, et nous sommes confiant qu’il sera résolu très bientôt.

Billet initialement publié chez Captaindash

Photo CC designbyfront et l e o j

]]>
http://owni.fr/2010/05/30/la-datavolution-est-elle-possible/feed/ 2
whitehouse.gov et elysee.fr : “Président digital” vs “Président analogique” http://owni.fr/2010/03/30/whitehousegov-et-elyseefr-president-digital-vs-president-analogique/ http://owni.fr/2010/03/30/whitehousegov-et-elyseefr-president-digital-vs-president-analogique/#comments Tue, 30 Mar 2010 13:47:11 +0000 Benoit Thieulin http://owni.fr/?p=11195 capture-de28099ecran-2010-03-30-a-151528

Si en terme de communication institutionnelle, et encore, descendante, le nouveau site de l’Elysée tient la comparaison avec son frère (de design) américain, il est lâché lorsqu’on examine les usages sociaux et innovants ainsi que les politiques publiques en matière de numérique : le gouvernement 2.0 parait bien loin.

La réactivité du web, et son humour, continuent de m’impressionner et de m’amuser : à peine le nouveau site de l’Élysée était-il lancé, fort de sa ressemblance assez frappante avec sa grande sœur whitehouse.gov, que www.whiteelysee.fr apparaissait sur Twitter pour s’en moquer gentiment.

Cela dit, aucune honte à s’inspirer de ce qui marche. Le site d’Obama est pas mal, donc, rien d’infamant à suivre la voie, même si l’inspiration frôle en l’espèce un peu trop la copie pure et dure… Regardez quand même ce qu’un graphiste m’a montré : le plagiat se loge même dans certains détails ; dommage, ils auraient pu quand même faire preuve d’un peu plus d’audace et d’imagination. D’autant qu’il s’agit presque là d’une récidive : le précédent site de l’Élysée avait déjà défrayé la “chronique du web” à son lancement tant il ressemblait comme un clone… au site du candidat Sarkozy pendant les présidentielles… Mais tout cela est anecdotique ; soyons beaux joueurs : le paquet semble avoir été mis sur la production des contenus ; le résultat est pas mal du tout pour un site de pure communication descendante.

Au-delà des aspects ergonomique et graphiques, en effet proches de ceux de la Maison Blanche, et assez efficace, il y quelques tentatives de communication assez ambitieuses qui méritent d’être saluées : “les actions”. Passons sur la phraséologie toute sarkozienne, un peu naïve et qui fait un peu sourire… Pour le reste, il y a derrière un gros boulot de structuration et de mise en forme des grands chantiers de sa présidence, reconstruit autour de ses déclarations et déplacements : présentation en amont du contexte, des enjeux, de la méthode choisie ; description de “l’événement” présidentiel, le plus souvent par un déplacement à grand renfort de photos, vidéos, etc. Puis, présentation en aval des actions, des principales mesures, du bilan (lorsqu’il y en a déjà un) et des prochaines étapes. Le tout décliné sur pas mal de thématiques. Une seule bizarrerie : naviguer dans les thématiques est du coup plus aisé et plus riche à partir des “actions” du président que par les “dossiers”, eux, beaucoup plus pauvres en contenus servis sur chacune de leur page.

Autre qualité : la fameuse recherche Exalead qui renvoie au mot près sur l’extrait vidéo du discours où le président utilise le mot recherché. Impressionnant. Ça fonctionne bien et cela peut être utile… On peut également noter les outils de dissémination, FB connect, la présence même embryonnaire sur les réseaux sociaux, etc. Tout cela n’a rien d’exceptionnel, mais c’est une avancée dans le web public français.

En revanche, là s’arrête la comparaison de part et d’autre de l’Atlantique. En effet, on aurait bien aimé que l’Élysée ne se limite pas à cette seule inspiration un peu cosmétique : la force d’Obama dans l’usage qu’il fait d’Internet ne tient pas à la jolie réalisation d’un site média bien alimenté en contenus sur l’action présidentielle ; elle consiste bien davantage en la richesse et en l’innovation de l’usage qu’il en fait au-delà de sa propre communication institutionnelle, à l’exemple des politiques publiques qu’il mène en matière numérique .

Alors, poussons un peu le parallèle. Et là, on est en droit de se demander :

- Pourquoi l’innovation des consultations publiques organisées par exemple par le département d’État américain sur www.state.gov/opinionspace, n’a-t-elle inspirée notre président ? Ou les différents dispositifs de questions mises en débat sur le site de la Maison Blanche ? Ou encore les émissions en direct ou les internautes posaient des questions via Internet ?

- Ou est l’équivalent français de data.gov qui force les administrations américaines à publier l’essentiel des données publiques pour en laisser aux citoyens la possibilité de les exploiter, de les mashuper ? Malgré l’ambition affichée par sa ministre NKM et son appel à projet, qui ne voit que le Président n’en a pas fait l’un de ses chantiers prioritaires, contrairement à Obama, visionnaire, qui a bien compris l’empowerment considérable que cela apporterait à la société ? Voila pourtant un usage révolutionnaire du Net, un levier de transformation de l’action publique. Mais sur Internet, Sarkozy a préféré le gourdin Hadopi au levier des “open data”…

- La publication des notes, études, et requêtes des lobbies publiées par Obama sur “You Seat at The Table” de change.gov, trouvera-t-elle un jour sa rubrique jumelle sur elysee.fr ou ailleurs ?

- Même les “actions” qui sont incontestablement bien réalisées sur elysee.fr, sont loin d’atteindre la traçabilité du “stimulus package” que l’on peut suivre sur www.recovery.gov. Et mieux vaut ne pas parler de www.relance.gouv.fr

Arrêtons la la comparaison. Au fond, l’analogie entre whitehouse.gov et elysee.fr tient la route tant qu’il s’agit de communication institutionnelle, et encore, descendante. Pour les usages plus “sociaux” et “innovants”, sans parler des politiques publiques menées dans le champ du numérique, malheureusement, l’hôte de la Maison Blanche tient la distance avec le locataire de l’Elysée. Une affaire qui se noue, probablement pour beaucoup, dans l’usage personnel que le premier a des outils Internet , et pas l’autre.

Au-delà de leur site de com’, le match se joue entre un “Président digital” et un “Président analogique”, pour reprendre la pertinente expression de Jean-Michel Billaut.

> Illustration par Ted Drake sur Flickr

> Billet initialement publié sur Temps réels sous le titre “En matière numérique, le match Obama / Sarkozy se joue ailleurs qu’entre whitehouse.gov et elysee.fr”

]]>
http://owni.fr/2010/03/30/whitehousegov-et-elyseefr-president-digital-vs-president-analogique/feed/ 6
Données publiques en France: Girondins vs Montagnards ? http://owni.fr/2010/02/24/donnees-publiques-en-france-girondins-vs-montagnards/ http://owni.fr/2010/02/24/donnees-publiques-en-france-girondins-vs-montagnards/#comments Wed, 24 Feb 2010 11:26:46 +0000 libertic http://owni.fr/?p=8959

Eugène Delacroix-La liberté guidant le peuple
Image by DarFin Oil Painting via Flickr

La semaine dernière, @nicolasvoisin indiquait sur Twitter la création prochaine d’un état lab en France. Je n’avais pas réussi à trouver la source de l’information mais c’est chose faite grâce à @epsiplatform, il s’agit de la page 38 du rapport Riester remis la semaine dernière à Eric Woerth et Nathalie Kosciusko-Morizet.

Etat lab

La proposition n°22 du rapport Riester suggère la création d’une plateforme d’innovation de services ci-nommée « Etat Lab » qui permettrait aux  acteurs tiers de développer des services innovants à partir de données publiques*.

Cette plateforme prendrait appui sur le futur portail national de lAPIE (Agence du Patrimoine Immatériel de l’Etat) de mise à disposition des données publiques et serait initialisée fin 2010. Elle permettrait d’intégrer les bases de données et API, ce qui rappelle trait pour trait le principe du datagov aux Etats-Unis (notamment).

Ce que le rapport ne dit pas :

» Quelles données libère-t-on ?
» Sous quel format ?
» Quels seront les types de licences pour l’usage de ces données ?
» Les formats seront-ils user-friendly (usage citoyen) et/ou mashup friendly (developpeurs only) ?
» Comment interagiront les plateformes de différents niveaux (locales, régionales, nationales) ?
» Qui finance ces plateformes ?
» A partir de quelle phase privatise-t-on le service ?

S’il convient de garder ces questions en tête, elles ne devraient pourtant pas servir d’alibi à l’inaction. Pour Hugues Aubin, chargé de mission TIC à Rennes, plutôt que s’attarder sur la normalisation des données (pointée du doigt à la FING lors de la conférence du 11 février sur l’ouverture des données), partons des bases existantes pour avancer.

Et justement de l’avancement il y en a avec la plateforme Data Publica dont la fonction correspond tout à fait à la définition de l’Etat lab.

Data Publica va mettre en place et opérer une place de marché sur laquelle ceux qui possèdent des données viendront publier leurs méta-données ou leurs API ainsi que la ou les licences sous lesquelles elles peuvent être utilisées, et ceux qui développent des applications viendront prendre ces méta-données pour développer des applications au modèles économiques compatible avec la licence d’utilisation. Data Publica fournira aux éditeurs de données une palette de licences parmi lesquelles ils pourront choisir et des outils pour publier leurs données et méta données. Data Publica fournira aux dévelopeurs un annuaire des API et meta données et l’accès aux données. Cette place de marché contribuera au développement des applications valorisant les données publiques ou privées. Le projet est financé partiellement dans le cadre de l’appel à projet « Web 2.0 innovant ». Il est développé par un consortium de trois entreprises : Araok, Nexedi et Talend.

Au fur et à mesure des avancées dans la révolution de l’ouverture des données publiques, les acteurs tendent à se positionner derrière deux camps. Data Publica rejoindrait les Montagnards misant sur la centralisation. Leur plateforme semble prendre la voie d’un service exclusif aux développeurs, avec catalogue de données brutes, approche assez administrative, données en partie payantes et peu ou pas d’outils intégrés pour la visualisation ce qui rend ces données innaccessibles au citoyen lambda.

Les plateformes locales (Keolis et la ville de Rennes à suivre) sont en train de se constituer de manière plus rapide- relativement parlant- et polymorphe. Elles pourraient prendre une approche plus ludique et aussi accessible au public en proposant des outils de visualisation, de personnalisation et de comparaison. Ce seraient les Girondins de l’ouverture des données, proposant un service décentralisé

Ces approches vont-elles s’entrechoquer ou au contraire devenir complémentaires ?

Dans un article comparant la plateforme américaine Datagov et la plateforme anglaise datagov.uk, Flowing Data indique sa préférence pour la version anglaise, plus accessible, elle est plus démocratique. Un catalogue centrale des données est pourtant indispensable aussi pourquoi ne pas préparer dès aujourd’hui la conciliation des deux versions ?

Data Publica pourrait être le centre de référencement national pour trouver une donnée et l’en extraire pour les développeurs. Les plateformes locales permettraient l’accessibilité aux données par les développeurs mais aussi les citoyens, ce qui serait d’autant plus judicieux qu’il s’agira de données locales fortement plebiscitée: transport, tourisme, etc. Pour s’y retrouver et obtenir un service homogène, il faudrait d’ores et déjà mettre en place des règles, notamment un intitulé-type pour les sites de bases de données: ville.donnee.fr par exemple.

Et si on changeait l’équation Girondins vs Montagnards pour: Girondins + Montagnards ?

* « Orange » a fait parti du groupe de travail pour le projet Riester qui préconise l’ouverture des données publiques, données qui sont à la base de bons nombres d’applications smartphones.

> Article initialement publié sur Libertic

> Illustration de page d’accueil par suzannelong sur Flickr

]]>
http://owni.fr/2010/02/24/donnees-publiques-en-france-girondins-vs-montagnards/feed/ 10
Les données ouvertes, futur eldorado du journalisme http://owni.fr/2010/02/08/les-donnees-ouvertes-futur-eldorado-du-journalisme/ http://owni.fr/2010/02/08/les-donnees-ouvertes-futur-eldorado-du-journalisme/#comments Mon, 08 Feb 2010 09:18:43 +0000 Tatiana Kalouguine http://owni.fr/?p=7741 Responsable des « projets d’anticipation » au pôle Télécoms et Médias de Sofrecom (filiale R&D de France Telecom), Valérie Peugeot passe ses journées à tenter d’imaginer le futur : medias sociaux, internet des objets, biens communs du web, etc. Une sorte d’Aldous Huxley moderne… dont les romans ne seraient pas de la fiction. Valérie intervenait jeudi 28 janvier à la Cantine sur le thème « Web des données, données ouvertes » . Je lui ai demandé quelle était sa vision d’un métier plein d’avenir, nous dit-on : le datajournalisme

Qu’on ne s’y trompe pas. Si le sujet des données « ouvertes » (ou « libérées ») passionne surtout les geeks -et déjà quelques « marketteurs »-, il ne devrait pas tarder à intéresser d’autres communautés. A commencer par les médias qui vont vite comprendre le formidable potentiel que constitue cette nouvelle matière première pour les métiers de l’info. Voilà que je me prends à rêver: dans le meilleur des mondes, les « open data » pourraient-elles nous offrir à nous journalistes l’occasion de nous réapproprier ce rôle d’intermédiaire qu’on a de plus en plus tendance à nous contester ?

Mais écoutons plutôt notre spécialiste…
1) Qu’est-ce qu’une donnée « ouverte » ou « libérée » ?
(1:11)

Cliquer ici pour voir la vidéo.

2) On a beaucoup parlé de data.gov, le site américain de partage des données des collectivités et de l’Etat (suivi il y a peu de son équivalent britannique). En quoi consiste ce site et quel est l’intérêt de ces bases de données pour l’internaute, le citoyen ?

(2:06)

Cliquer ici pour voir la vidéo.

3) Quel peut-être le rôle du journaliste face à ces masses de données ?

(1:00)

Cliquer ici pour voir la vidéo.

4) Qu’entendez-vous précisément par la notion d’ « intermédiaire » ou de « médiateur »?

(2:21)

Cliquer ici pour voir la vidéo.

5) Où en est l’Etat français quant à l’ouverture des données publiques ?

(1:45)

Cliquer ici pour voir la vidéo.

6) Et pourquoi chez nous ça bloque ?

(2:00)

Cliquer ici pour voir la vidéo.

7) On a parlé des données publiques, provenant des différentes institutions dépendantes de l’Etat et des collectivités locales. Qu’en est-il des bases de données alimentées par les internautes eux-mêmes ? Comment s’assurer de la fiabilité des données communiquées par des anonymes (là, le journaliste est forcément interpellé) ?

(3:57)

Cliquer ici pour voir la vidéo.

Fin de l’entretien.

Voici maintenant, pour les plus passionnés d’entre-vous, l’intégralité du speech de Valérie Peugeot à La Cantine (où elle ne parlait pas spécifiquement de datajournalisme), ainsi que le diaporama qui l’accompagnait…

Eléments de contexte : la salle est minuscule mais bondée en ce jeudi matin. Le public : rien que des garçons munis de notebooks (on est bien à la Cantine). Mon voisin filme et retransmet en live avec son iPod via Ustream et twitte en même temps, hum. Je me sens plus dodo que jamais avec ma vieille camera Canon datant de 2001, mais passons. Deuxième étonnement : ce public est pointu, connaît bien le dossier et s’implique à fond dans le débat.

Si vous êtes prêts à enquiller ces vidéos, votre patience sera récompensée. Car ce thème des données ouvertes est plein de tiroirs et soulève une multitude de questions d’ordre technique, politique, sociologique et même philosophique. Et les réactions épidermiques de la salle à cet exposé donnent un bon avant goût des grands débats qui agiteront la vie publique française dans les années à venir, lorsque (on l’espère) l’APIE (Agence du patrimoine immatériel de l’Etat) se décidera à ouvrir les données « publiques »… au public.

J’attends vos commentaires !

Voici les 3 premières vidéos, de 15 à 20 min chacune. Il y en a 3 autres, que je diffuserai en fonction du nombre de visionnages (c’est un truc assez lourd à gérer) :

1/6 (15:18)

Cliquer ici pour voir la vidéo.

2/6 (19:41)

Cliquer ici pour voir la vidéo.

3/6 (19:50)

Cliquer ici pour voir la vidéo.

Pour aller plus loin :

Le journalisme de données, les données ouvertes et la dictature de la transparence, par Fabrice Epelboin sur ReadWriteWeb.

Open Government data presents new journalism opportunities and legal challenges, un billet de l’avocate Hellen Fu, sur le blog Citizen Media Law Project

Le database journalism pour nous sauver du « frogboiling », par Caroline Goulard, sur le blog Databasejournalism.

Pour un journalisme de données, par Nicolas Vanbremeersch (Versac), sur Slate.fr

A visiter aussi: Windows on The Media, le blog de Nicolas Kayser-Bril, jeune pionnier du datajournalism à la française qui explique sa démarche et publie quelques unes de ses enquêtes.`

>> Article initialement publié sur La Voix du dodo

>> » Illustration de page d’accueil par Stéphan sur Flickr

]]>
http://owni.fr/2010/02/08/les-donnees-ouvertes-futur-eldorado-du-journalisme/feed/ 0
Apps for Democracy [en] http://owni.fr/2009/09/08/apps-for-democracy-en/ http://owni.fr/2009/09/08/apps-for-democracy-en/#comments Tue, 08 Sep 2009 16:30:38 +0000 Media Hacker http://owni.fr/?p=3308 Cliquer ici pour voir la vidéo.

Netpolitique a interviewé Peter Corbett, qui a mis en place un concours d’applications mobiles open source : “Apps For Democracy”. Réalisé pour la ville de Washington, ce concours a permis de créer plusieurs services pour la ville et ces citoyens, et a très fortement influencé le projet data.gov, tentative de rendre palpable le principe d’open government cher à Barack Obama. Cette vidéo  présente la manière dont a été organisé “Apps for Democracy”, avec pour préliminaire fondamental la mise à disposition des données par les pouvoirs publics.

]]>
http://owni.fr/2009/09/08/apps-for-democracy-en/feed/ 1
Machine à mash-up http://owni.fr/2009/05/22/machine-a-mash-up/ http://owni.fr/2009/05/22/machine-a-mash-up/#comments Thu, 21 May 2009 23:47:45 +0000 Alexandre Léchenet http://owni.fr/?p=1219 Les mash-up, ce sont ces magnifiques applications qui mêlent tout un tas de données et qui peuvent être à la fois intéressantes à connaître, faciles à utiliser et même belles à voir. Preuve en est avec cette petite merveille faite par le New-York Times qui permet de suivre les films en fonction du nombre d’entrées au box-office et en fonction du temps : The Ebb and Flow of Movies. Où l’on voit le film qui a beaucoup d’entrées au début mais dont les gens se lassent vite et ceux dont le bouche-à-oreilles fonctionne et qui, malgré un très faible départ, durent dans la longueur.
Bien sûr, s’amuser avec des films est amusant. Mais que diriez-vous si toutes les données existants dans les base de données de l’administration (sans, bien sûr, les données personnelles) vous étaient offertes, sur un plateau, dans un format ouvert. Et que toutes ces données pourrait, du coup, être exploitées, faire des applications intéressantes et permettre à tout un chacun de comprendre ce qui se fait dans son pays. En France, ça n’existe pas encore. Aux États-Unis, ça s’appelle data.gov. Tout simplement. donnees.gouv.fr. Et des choses assez compliquées comme le calcul des “notes” pour les parlementaires seraient d’un coup plus simples. Et si quelqu’un veut présenter le nombre de chômeurs vivant à proximité d’un Parc National, il pourrait le faire.

]]>
http://owni.fr/2009/05/22/machine-a-mash-up/feed/ 7