Digiposte + : les améliorations possibles et souhaitables.

63 x served & 22 x viewed

Je fais un nouvel article sur Digiposte (le service de La Poste). Mes précédents articles :

Je vais donc reprendre les améliorations possibles….

La sécurité :

C’est toujours le principal à mes yeux. Il faut au minimum :

  • Un interface qui liste les dates de connexions sur le dernier mois (pour tous les comptes). Sur l’interface il suffit de marquer : date, IP.
  • Un email pour informer qu’il y a une connexion (optionnel).
  • La double authentification (au moins pour les comptes payant).
  • Pouvoir bloquer certaines connexions venant de certains pays : Ukraine, Russie, Mexique (Je vais me faire des amis).

Aujourd’hui sur Digiposte il y a des documents sûrement plus importants que sur Google, par contre Googla a une interface qui liste les connexions, la double authentification …. C’est anormal que Digiposte ne fasse pas plus pour la sécurité.

La gestion des doublons :

Actuellement il y a des doublons de PDF, il faudrait une interface qui puisse détecter les doublons et qui propose la suppression. Il est facile de détecter des doublons de fichier, il suffit par exemple de calculer un checksum sur chaque fichier.

Les badges

Pour moi Digiposte devrait clairement développer les badges, (comme fait https://basno.com ) comment cela fonctionnerait ? C’est simple, les organismes poussent les diplômes, ou les certificats, ou les résultats vers Digiposte. Ensuite l’utilisateur veut en faire un Badge, il clique sur un bouton et cela crée une lien avec une image par exemple : <a href="https://secure.digiposte.fr/badge/123456789.html"><img src="https://secure.digiposte.fr/img/bac.png" alt="Bac"/></a>. Enuiste ce lien (avec l’image) peut être copié sur le CV, sur un blog, sur un email, sur un formulaire. Cela permet a une personne de vérifier la véracité du document, car en cliquant il tombe sur Digiposte.

 Cela permet par exemple :

  • A un recruteur de bien vérifier que les diplômes ont étés obtenus. « Selon la rue de Grenelle, jusqu’à 30% des CV transmis par les candidats aux cabinets de recrutement présentent des diplômes « de façon abusive ou inexacte ».
  • A un organisateur d’une plongée de vérifier que tous les plongeurs ont le niveau 1.
  • Pour chaque course on doit envoyer (via téléchargement) ou apporter le certificat médical. En utilisant un lien, c’est plus facile de voir la véracité et c’est plus facile pour le site qui fait l’enregistrement des coureurs.
  • A un organisateur d’un Trail de voir le nombre de point UTMB que le coureur possède. Le site @JaimeCourir a tous les résultats des courses, et certaines courses donnent droit à des points UTMB. Mais il n’y a pas de réelle vérification ….

On peut aussi imaginer des Badges pour des formations, ou des salons….

Ensuite l’idéal serait de faire des partenariats avec viadeo.com, linkedin.com ou xing.com pour les diplômes.

Bien sûr Digiposte doit gagner de l’argent, ( c’est le nerf de la guerre ):

  • Rendre les badges payants.
  • Mettre de la publicité quand une personne vient vérifier.
  • Il faut voir que cela va faire « gonfler » le compte, et donc les utilisateurs vont atteindre plus rapidement les 5 Go.
  • Rendre payant les statistiques de visite des Badges.

Voici par exemple mon badge de SPARTAN RACE : https://basno.com/67zq8ini , si on clique dessus :

Le source du badge étant : <a href= »http://basno.com/67zq8ini »> <img class= »aligncenter » src= »http://basno.com/67zq8ini.png » alt= » » /> </a>

Petite comparaison entre digiposte.fr et basno.com sur http://rankchart.net/ :

INTERFACE PLUS SIMPLE POUR LES PME

Actuellement seul les grosses entreprises sont visibles sur Digiposte, il faudrait mettre à disposition une interface plus simple pour les petites PME.

 

A suivre.

Le vote citoyen c’est sur laprimaire.org !

Lien

116 x served & 18 x viewed

Le programme sont bien détaillés, il faut aller voir : https://laprimaire.org . Le vote ne coute rien et la lecture non plus 😉 .

OpenData : Il suffisait de demander pour avoir un format exploitable ;)

74 x served & 30 x viewed

Après ma demande d’un format exploitable, ils sont passés du PDF à Excel. Youpi ! La réponse :

« Les données sont de nouveau toutes disponibles en format tableur, ce jusqu’à octobre 2016. En cas de décalage dans la mise en forme à l’ouverture, l’activation des modifications suffit à rétablir le tout. »

Un OS Souverain …

En passant

401 x served & 112 x viewed

Quel beau métier celui de député  : http://www.lefigaro.fr/secteur/high-tech/2016/01/22/32001-20160122ARTFIG00268-les-deputes-votent-en-faveur-d-un-windows-a-la-francaise.php

Pour Delphine Batho, le développement d’un système d’exploitation franco-français permettrait à la France de défendre sa souveraineté numérique. «Le cyberespace est dominé par des oligopoles soumis à un droit étranger, à une souveraineté étrangère», a dit la députée des Deux-Sèvres à l’Assemblée, rejoignant une cohorte d’accusations portées contre les «géants du Web».

Il y a déjà assez d’OS : Windows, Linux avec des 20 versions, Mac OS … je ne sais pas sur quelle planète ils habitent. Et plus avant de faire un OS souverain il serait intelligent de ne pas faire de partenariat avec Windows (Education nationale) mais plutôt de se lancer dans le libre sous Linux. Je sais même pas si Batho connait linux pour dire « Le cyberespace est dominé par des oligopoles soumis à un droit étranger »  ….

S’il y a quelques choses de souverain à faire c’est plutôt un moteur de recherche. Car pour l’instant il n’y a que Google, il n’y a pas grand chose de nouveau à part https://www.qwant.com .

Et je n’aborde pas l’optimisation fiscale de Google qui lui permet de quasiment rien payer en France. Toutes la publicité est payée en Irlande … Bravo !

Open Data Gouv : Arrêtés de catastrophe naturelle en France mon troisième fichier

509 x served & 207 x viewed

Je m’attaque donc au troisième fichier disponible, ayant donc connu les inondations à Biot .

Capture d’écran 2016-01-16 à 18.24.01

Le fichier est donc de 1982 à 2015, d’après moi pour une analyse pertinente il faudrait un fichier de plus de 100 ans 😉 . Mais je vais donc faire avec ces 33 ans …

Cette fois je ne vais pas faire le barbare et utiliser awk & sed … je vais faire avec Excel 🙂

On commence donc par faire un premier tableau croisé dynamique, afin de voir le Périls le plus fréquent :

image002

On a loin devant : « inondations et coulées de boues ». A noter que l’on a un vide :

INSEE Département Commune Périls Date début Date fin Ecart
64129 64 Billère 19/06/2006 19/06/2006 0

Quel mystère … une attaque de martien ?

Ensuite si on regarde la durée moyenne :

image006

La plus part du temps c’est 0 jours … ce qui semble être le cas pour les inondations.

Si on recherche la durée la plus longue :

INSEE Departement Commune Périls Date début Date fin Ecart
12037 12 Broquiès Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols 01/09/1985 11/09/1996 4028 jours

Nombre de déclaration par commune :

image009

Entre 1 et 60 …

Mais où est BIOT (INSEE 6018 : https://fr.wikipedia.org/wiki/Biot_(Alpes-Maritimes) ) ? On est à 22 … pas mal.

INSEE Département Commune Périls Date début Date fin Ecart
6018 6 Biot Inondations et coulées de boue (13) 09/11/14 11/11/2014 2
6018 6 Biot Inondations et coulées de boue (12) 04/11/14 06/11/2014 2
6018 6 Biot Mouvements de terrain (5) 08/02/14 08/02/2014 0
6018 6 Biot Mouvements de terrain (4) 16/01/14 19/01/2014 3
6018 6 Biot Inondations et coulées de boue (11) 04/11/11 06/11/2011 2
6018 6 Biot Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols (4) 01/07/07 30/09/2007 91
6018 6 Biot Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols (3) 01/01/07 31/03/2007 89
6018 6 Biot Inondations et coulées de boue (10) 08/09/05 09/09/2005 1
6018 6 Biot Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols (2) 01/07/03 30/09/2003 91
6018 6 Biot Inondations et coulées de boue (9) 25/12/2000 25/12/2000 0
6018 6 Biot Inondations et coulées de boue (8) 05/11/2000 06/11/2000 1
6018 6 Biot Mouvements de terrain (3) 14/10/2000 16/10/2000 2
6018 6 Biot Inondations et coulées de boue (7) 11/10/2000 11/10/2000 0
6018 6 Biot Mouvements de terrain (2) 11/10/2000 15/10/2000 4
6018 6 Biot Inondations et coulées de boue (6) 23/10/1999 24/10/1999 1
6018 6 Biot Mouvements de terrain (1) 23/10/1999 24/10/1999 1
6018 6 Biot Inondations et coulées de boue (5) 24/12/1996 25/12/1996 1
6018 6 Biot Inondations et coulées de boue (4) 11/01/1996 12/01/1996 1
6018 6 Biot Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols (1) 01/09/1995 31/12/1995 121
6018 6 Biot Inondations et coulées de boue (3) 05/10/1993 10/10/1993 5
6018 6 Biot Inondations et coulées de boue (2) 10/10/1987 11/10/1987 1
6018 6 Biot Inondations et coulées de boue (1) 04/10/87 05/10/1987 1
6018 6 Biot Tempête (1) 06/11/1982 10/11/1982 4

Si on cherche à connaitre les communes qui a le plus de déclaration …

INSEE Nombre
6088 – Nice 60
6027 – Cagnes sur mer 44
6004 – Antibes 43

… bienvenue dans les Alpes-Maritimes 🙂 . Le soleil c’est pas sans risque …

Ensuite si on fait le même calcul par département on a ceci :

Département Nombres
5 : https://fr.wikipedia.org/wiki/Hautes-Alpes  87
..
6 1083

31
4222

Ce n’est plus les Alpes-Maritimes qui sont en tête, pourquoi ? Tout simplement parce que l’on compte plusieurs fois le même évènement. Il faut donc ajouter une clef pour être sûr que l’évènement est unique. Par exemple la clef : Péril + « – » + Date début + « – » + Date fin, me semble convenir. C’est faux car on peut voir sur les évènements de Biot qu’il y a par moment le Péril qui est en double.

On obtiens alors ceci :

Clef « unique » Nombre de commune
Inondations, coulées de boue et mouvements de terrain-36519-36523 25638
Tempête-30261-30265 12521
Inondations et coulées de boue-30293-30316 5386
Mouvements de terrain différentiels consécutifs à la sécheresse et à la réhydratation des sols-37803-37894 4414
Inondations et coulées de boue-34716-34730 3016
Tempête-32065-32066 2572
Inondations, coulées de boue, glissements et chocs mécaniques liés à l’action des vagues-36519-36523 2131
Inondations et chocs mécaniques liés à l’action des vagues-39837-39840 2082
Inondations et coulées de boue-39837-39840 1844

On a deux tempêtes qui sont en bonne position, la plus importante a impacté 12521 communes.

Maintenant il faut donc refaire le calcul en comptant seulement une fois le même évènement, et cela donne ceci :

Département Nombres de péril différent
75 – Paris  12
87 – La haute vienne  29
90 – Territoire de Belfort  30
5 – Hautes Alpes  49
6 – Alpes maritimes  279
62 – Pas-de-Calais  435
31 – Haute-Garonne  450

La question que l’on peut se poser : Quel est la différente du prix de l’assurance habitation en fonction de notre code postal ?

Maintenant il faudrait recouper avec un autre fichier, par exemple pour le nombre de transactions chez les notaires. On pourrait ainsi mesurer l’impact des inondations sur les transactions et aussi sur le prix des transactions … le problème c’est qu’il n’y a rien dans l’open data sur cela.

Le seul fichier trouvé n’est pas vraiment un fichier mais une image …

Capture d’écran 2016-01-18 à 16.37.21

Quel est l’intérêt de mettre autre chose que des données dans l’OpenData ? C’est complètement nul de mettre un PNG… pas assez précis et pas utilisable. On se demande presque si ce n’est pas un moyen de faire de la publicité. Je lance une nouvelle discussion … pour l’instant 0 réponse sur mes discussions, mais je ne perds pas espoir de me faire un ami 🙂 .

Torchons & Serviettes

Bonjour,
Serait-il possible d’avoir un fichier Excel avec le prix par type de bien et par commune sur un an ?
J’ai l’impression que l’on mélange les torchons et les serviettes, dans les alpes-maritimes le prix en bord de mer est fortement différent du prix dans l’arrière pays. J’ai du mal à comprendre l’intérêt du graphique.
Cordialement.

Capture d’écran 2016-01-18 à 21.07.15

Par exemple si on va sur : http://www.meilleursagents.com/prix-immobilier/nice-06000/#estimates 

Capture d’écran 2016-01-19 à 10.47.17

entre un appartement et une maison on à 4429-3752=677 Euro.

Et maintenant si je reste dans les alpes-maritimes et que je vais à Gréolière :

Capture d’écran 2016-01-19 à 10.48.35

Entre le prix m2 de la maison à Gréolières et le prix du m2 de la maison à Nice, j’ai le double. Donc si l’agence ,à un moment donné, vend plus de bien dans l’arrière pays elle va faire chuter la moyenne …

C’est bien de vouloir mettre des données dans l’Open Data mais encore faut-il que cela soit pertinent !