Saurons-nous réellement tirer profit de l’Intelligence artificielle ?

Intelligence Artificielle, économies d’échelles, processus de mémorisation, économie du pic.

Comment l’IA peut nous aider à gérer les situations de Pics ?

Un pic est une surcharge, une surchauffe, une concentration trop élevée, au même moment et souvent au même endroit. L’IA pourrait produire des recommandations basées sur les observations comportementales au fil de l’eau dans l’objectif de limiter ces situations de pics.

Ce sont les situations de pics qui définissent le dimensionnement des réseaux :

  • Pour pouvoir répondre au pic de consommation énergétique quotidien, le réseau doit être capable de délivrer simultanément une énergie X fois plus importante que la moyenne observée sur le reste de la journée. Pour faire face à ces pics en Hiver, le réseau doit s’appuyer sur un certain nombre de centrales d’habitude restées à l’arrêt (Centrales thermiques, à charbon…).
  • Les transports en communs et privatifs sont constamment pleins aux mêmes heures et presque inutilisés la majeure partie de la journée.
  • L’ensemble des commerces sont ouverts de 9h à 19h en moyenne pour une fréquentation concentrée entre 12h et 14h et à partir de 17h30. Ainsi, la consommation d’énergie observée tout au long de la journée rapportée à la fréquentation pose question.
  • La plupart d’entre nous partons en week-end et en vacances sur les mêmes périodes et nous concentrons ainsi sur des routes qui sont beaucoup moins utilisées le reste du temps.

Ainsi, nous sommes continuellement confrontés à des situations de pics : départ en vacances, en week-end, chemin vers le travail, courses alimentaires, shopping.

 

Si nous prenons uniquement le secteur du shopping, la déperdition énergétique liée à l’ouverture des commerces sur toute la journée pour une fréquentation quasi-nulle sur la majorité des créneaux horaires parait rapidement un non-sens. Au moins 2 autres options sont possibles :

  • Permettre un étalement des visites (question générale de société).
  • N’ouvrir ces commerces que sur les périodes de temps ou le ratio fréquentation/conso énergétique le justifie.

Aujourd’hui, la centralisation massive des données comportementales ne pourrait-elle pas s’inscrire dans une volonté d’optimisation globale de l’utilisation de nos biens communs (réseaux routiers, réseaux de transports, énergie, services) ?

Ayant en parti pour objectif d’en lisser les usages.

Etablir un roulement ?

 

Ex lié à la gestion du Pic de pollution.

Nous pouvons facilement imaginer que l’IA formule des recommandations liées aux déplacements en véhicules producteurs de CO2, ou plus généralement d’entropie. Connectée en temps réels à l’ensemble des capteurs et ayant connaissance des profils des usagers (types de déplacements, durées, embouteillages anticipé), mais aussi d’appliquer ces recommandations de façon juste, parfois basée sur une randomisation, lorsque aucun critère plus juste ne fait sens et tout cela en prenant en compte des critères d’usages alternatifs (Transports en Commun, télétravail, décalage des trajets dans l’objectif d’éviter la réalisation de pics). Si nous étions prêts à l’utiliser à ces fins, les gains énergétiques, pourraient être considérables.

 

 

L’ensemble des éléments, des entités existantes, ont au moins 2 dimensions qui les relient : l’espace et le temps. Ainsi, même dans le cas ou 2 phénomènes sont à-priori complètement disjoints dans l’espace, il est possible qu’ils surviennent au même instant (ex : consommation de ressources dans le cloud), qu’ils s’instancient en même temps, ou tout aussi bien à des moments différents, ce qui n’enlève en rien le fait qu’ils soient reliés par cette dimension temps. Les données sont donc à minima une réalisation sur ces 2 dimensions.

La prise de décision nécessite une instanciation, une situation figée des facteurs, la mesure de cette situation à un instant donné (et donc. Autrement dit, la sensation de continuité est une vue de l’esprit. Elle est en fait une saccade, une succession de micro enchainements neuronaux réalisés à une certaine vitesse, c’est cette vitesse qui nous inscrit dans le monde qui nous entoure. C’est aussi en cela que la machine modifie notre rapport au temps, permettant une succession d’instanciations plus rapide et en ayant connaissance d’un plus grand nombre de facteurs. Elle est donc capable d’élaborer une adaptation à une situation plus rapidement (et omnisciente) que l’ensemble des adaptations relativement disjointes des individus.

Plus d’infos sur le Pic énergétique hivernal : link

 

L’IA et l’optimisation intra- et inter-entreprises.

Ainsi, à l’échelle d’une entreprise, des questions similaires se posent, comment tirer parti de façon optimale de l’ensemble des espaces partagés : salles de meeting, cantine, cafétaria, télétravail. Comment l’IA peut apporter des réponses en suggérant des adaptations comportementales ? Et ainsi contribuer en retour à une optimisation plus large que celle de l’entreprise en interconnectant (de façon anonymisée) les différentes échelles d’interaction d’entreprises et de privées.

L’IA au service de l’entreprise : link

 

Pas d’Intelligence sans processus de mémorisation, de rétention :

Notre I est la réalisation d’un choix dans le temps et dans l’espace, l’instanciation d’une décision. Cette décision est prise par rapport à l’affectation de probabilités d’adaptation projetées inconsciemment. Le déroulement de cette décision est quasi-automatique, nous l’avons intégré, ce n’est donc plus un mécanisme complètement conscient. Cette intelligence se résume à une adaptation basée sur un exercice de discrimination entre plusieurs réactions possibles à une situation. Ces « scores » de projection sont intrinsèquement basés sur l’ensemble de nos processus de mémorisation. De chaque situation vécue nait un souvenir, ce souvenir est une nouvelle base pour la formulation d’un choix futur. Aux situations vécues, il convient d’ajouter les situations rêvées, projetées, issues de notre imagination mais dont la réalisation imaginaire permet la conservation d’un souvenir. C’est également le cas pour l’ensemble des « souvenirs » issus de situations non vécues mais visualisées (films, documentaires vidéo), entendues (radio, histoire comptée), imaginées à partir d’un élément transformé (lecture).

 

L’IA n’échappe pas à l’exercice de mémorisation :

De la même façon qu’un cerveau humain, la concrétisation de l’utilisation d’une IA est rendue possible à partir du moment où elle peut instancier un choix à partir de la mémoire qu’elle possède à un instant donné. Cette mémoire métastable correspond à l’addition de 2 mémoires : celle qui lui a été transmise et celle qu’elle a pu constituer à partir du moment où elle a été mise en fonction. Sachant qu’il existe 2 façons de transmettre une mémoire à l’IA : 1) en utilisant une base d’observations finie ou alimentée au fur et à mesure. 2) un algorithme permettant à la machine de balayer elle-même un certain nombre de « mémoires : fichiers, comportements, tweets… »

Une observation, notion élémentaire du datascientist est la réalisation d’un comportement (ex : « l’entreprise x a envoyé un email à la personne y, la personne y a réagit de telle manière ». Nous voyons ici l’enchainement de plusieurs situations, d’une stimulation d’origine, jusqu’à l’observation de la réaction. Ces observations sont enregistrées et constitueront donc une liste de « stimulations – réactions », à partir de laquelle le programme-machine constituera une historisation, lui permettant de réagir de façon « intelligente », ie, en puisant dans cet ensemble pour adapter ses comportements en fonctions de ces observations (Par exemple : « pour engendrer une réaction attendue de ce type de personne, l’email doit être envoyé à tel moment »). Ainsi, c’est bien l’ensemble de ces historisations qui permettront à la machine de réagir « intelligemment » et toujours en fonction d’un objectif à maximiser (ici : « engendrer la réaction attendue »). Le programme discrimine donc entre l’ensemble de ses comportements possibles dans l’objectif de maximiser tel type de réaction, en fonction de l’ensemble des processus de mémorisation qui lui sont accessibles au moment même où elle doit produire cette instanciation de décision.

Nous concluons ici, que tout comme au niveau de l’I humaine, l’IA évolue à partir de l’observation de ses propres choix et des nouvelles réactions observées (adaptation de l’environnement) dans le temps.

Plus loin sur la rétention : http://arsindustrialis.org/r%C3%A9tention

La vitesse : temps biologique Vs temps électrique.

Nous observons donc une grande similitude entre les 2 Intelligences ci-dessus, les 2 se basent sur l’impression successive (quasi-continue = en rafale) de processus de mémorisations.

Une des différences majeures entre les 2 intelligences citées réside bel et bien dans la vitesse de traitement et d’enregistrement…c’est le caractère métastable de l’Intelligence. Ainsi, même si nos neurones effectuent très rapidement ces exercices de mémorisations et l’instanciation de ces choix, ces derniers s’exercent bel et bien dans un environnement biologique dont la vitesse est relativement lente par rapport à la circulation de l’information à l’intérieur du corps humain. Réaction : j’émet un son, une phrase, je lis ou je regarde un contenu, j’appuie sur un boutton, etc… Le temps d’intégration de cette information dépend directement de la vitesse à laquelle mes organes émetteurs et récepteurs sont capables de transmettre l’information.

Prenons un exemple simple :

Une présentation entre 2 individus (Cas incontournable et souvent 1er dans la construction d’un agent conversationnel) :

« Bonjour, je m’appelle Julien Humain, je suis enchanté de faire votre connaissance », selon le contexte, JH utilisera plutôt :

  • le tutoiement Vs le vouvoiement
  • l’engagement vers un smalltalk (meteo, « comment c’est passé votre voyage ? »,…)
  • selon objectif de la rencontre, engagement de la discussion vers cet objectif (ex : consultant virtuel)

et s’adaptera au contexte (bruit, dérangement, autres facteurs…).

L’interlocuteur répond, généralement en adaptant le style d’approche choisit par JH :

« Bonjour, Carole Humaine, ravie également ».

 

Les présentations ont pris à minima 60s, à savoir le temps minimal nécessaire pour prononcer ces 2 phrases. Temps incompressible lié à la contrainte biologique de l’organe bouche (prononciation dans l’espace) et de l’organe oreille (perception et transmission au cerveau) …le cerveau quant à lui analyse la phrase interceptée, la compare avec la « base de données » mémoire et transmet beaucoup plus rapidement les différentes réponses possibles à l’organe bouche, etc…

L’ensemble de la scène ci-dessus est enregistrée par les 2 cerveaux présents comme nouvelle observation et vient moduler les scores correspondant. JH et CH ont donc chacun une observation de plus pouvant intervenir dans la future formulation de décisions, particulièrement dans le cas d’une future situation de « présentation » mais dans d’autres cadres également.

Remarquons que c’est également le cas si JH regarde un film et que ce dernier contient une scène de présentation => cette séquence sera enregistrée par JH et elle se sera également déroulée à une vitesse contrainte par le biologique.

Plus d’infos sur le transhumanisme : https://transhumanistes.com/presentation/

Différence 1 entre l’individu et le programme-machine : le volume de données à disposition.

Le PM ne comporte pas la même contrainte biologique que l’être humain : la base de données « présentation » qui peut lui être transmise en 1 seconde comprend déjà beaucoup plus d’observations que celle que JH a pu constituer au cours de sa vie et des situations de présentations vécues. Issues de films, de scènes filmées, de bases de données retranscrites, d’émissions de radios, de livres…En quelques instants, le PM peut mettre à profit une quantité quasi-illimitée de scènes de « présentations » pour formuler une adaptation à une forme de « bonjour ».

 

Différence 2 entre l’individu et le programme-machine : la vitesse de formulation d’un choix et d’observation d’un résultat.

Dans le cadre de la réalisation d’un jeu soumis à un ensemble de contraintes, le PM peut lui-même générer ses exercices de mémorisations, tout en bénéficiant de son avantage mentionné dans le cadre de la différence 1. C’est le cas du dernier algorithme de google AlphaGoZero : seules les règles du jeu lui sont transmises et en 4 jours il est devient plus performant que son prédécesseur. Comment ? En se dédoublant (création d’un adversaire) et en générant un historique de partie colossal (4 millions de parties)…il a donc mis à profit son principal atout : la vitesse, non contrainte par le domaine biologique. Ainsi, chaque combinaison de parties peut être jouée et rejouée presque à l’infini dans l’objectif d’observer de solides discriminations entre les résultats et finalement d’atteindre les limites de maximisation de la probabilité de gagner.

L’IA, à défaut de couvrir l’ensemble des dimensions de l’Intelligence humaine, en partie inexpliquée, est supérieure à elle à 2 niveaux : le volume et la vitesse. Ainsi, elle s’inscrit dans une autre échelle à 2 niveaux pour prendre ses décisions :

  • elle peut considérer un nombre quasi-illimité de paramètres et modéliser leurs interactions à un instant t => effet volume.
  • elle peut générer une succession de décision à la vitesse de circulation de l’électricité = s’auto-ajuster en quasi-continu (laps imperceptibles à notre échelle).

 

 

Différence 3 entre l’individu et le programme-machine : le PM n’intègre pas de dimension psychologique dans la formulation de ses choix.

Autrement dit, les sentiments n’affectent pas les choix du programme. Chez l’humain, l’affect vient en quelque sorte pondérer les scores qu’il attribue à chacune de ses réactions possibles à une situation. Une telle pondération n’a pas lieu d’être chez le PM. A l’extrême, cela signifie que le PM n’intègre pas par défaut de mécanisme de refoulement, comme on peut parfois le constater chez l’humain. Ce mécanisme protecteur qui permet chez certains humains de se prémunir face à une remise en cause significative de leur fonctionnement propre, n’existe pas chez le PM, en revanche rien n’empêche d’imaginer pouvoir y implémenter à terme un tel processus de protection. Cela reviendrait à intégrer à ce PM un évaluateur de la quantité de remise en question de ses scores et d’empêcher un bouleversement trop radical suite à une nouvelle expérience. Dans les faits, c’est parfois ce que fait le datascientist : en monitorant l’activité d’une IA, il détecte la pertinence des expériences ayant un impact significatif sur sa manière de réagir. Le datascientist peut ainsi choisir de retirer manuellement cette expérience de la mémoire du PM, venant ainsi reproduire une forme de refoulement. « Le datascientist, psychologue de l’IA ? »

 

 

L’IA maximise les objectifs que nous lui transmettons :

Le défis est de notre côté. Concrètement, l’IA répond à un système d’équation qui lui a été transmis. Par exemple : répondre de façon adaptée à un interlocuteur, maximiser un profit sous contrainte de disponibilité d’une ressource.

Elle répond donc de façon de plus en plus aiguisée grâce à un nombre de références croissant, en maximisant l’objectif qui lui a été fournis. Quelque-soit le niveau de qualité d’une IA, elle ne sera néfaste pour l’être humain qu’à partir du moment où nous lui transmettons des objectifs eux-mêmes néfastes pour nous-même. L’exemple le plus simple est un cas de science-fiction bien connu, celui de Al, le robot du vaisseau de 2001 qui préfère sauver sa peau plutôt que celle de l’humain qu’elle doit protéger car elle sait qu’il cherche à la détruire…il aurait suffis de lui transmette comme objectif primordial la supériorité de la vie humaine par rapport à la sienne… Retranscris en contexte métier : le monitoring et le suivi par un humain de l’activité d’une IA (ie, un modèle de datascience) et de son évolution sont des taches récurrentes incontournables. Le datascientist sait comment mettre en place les outils de contrôles et d’alertes pour réaliser ces taches de façon efficace. Son rôle étant en partie déterminé par la formulation de plus en plus fine des équations d’objectifs et de contraintes auxquelles les IA devront répondre.

 

L’IA au service de l’optimisation collective sous contraintes individuelles :

2 français sur 3 ont peur de l’IA, mais au fond, ce n’est pas l’IA en elle-même qui leur fait peur, mais bien les objectifs qui y seront inscrits, les éléments qu’elle cherchera à maximiser (ou minimiser dans le cas de la pollution), c’est-à-dire les contraintes sociales, culturelles. Il devient maintenant urgent de se pencher sur cette question des objectifs et contraintes qui nourriront l’IA de demain et c’est l’occasion incontournable de placer ces décisions dans les mains des futurs bénéficiaires de ces recommandations, c’est-à-dire les peuples eux-mêmes, plus que jamais capables d’interagir avec ces nouveaux outils pour partager leur vécu, leurs contraintes, leurs objectifs personnels qui cumulés, forment les orientations sociétales.

Jonathan Petit

 

3 startups IA au service de l’Humain : link

Une autre proposition de la division du travail : la répartition des taches essentielles à tous.

Automatisation accélérée et répartition du travail marginal.

Eté 2017 : je mets mes recherches algorithmiques en pause et m’apprête à embarquer pour mon train vers le sud. En début de quai, les portiques automatiques n’attendent qu’à être branchés aux programmes déjà prêts à enregistrer les passages des voyageurs. Au-dessus, les caméras, potentiellement connectées à des algorithmes de reconnaissance faciale, sont prêtes à envoyer quantité d’informations, sortes de futurs radars routiers pour piétons des gares. En attendant, postés au même endroit que ces portiques, les derniers contrôleurs humains remplissent cette tache de vérification des billets avant montée à bord.

J’appelle ici travail marginal, la partie non automatisée du travail global (en France par ex.) à un instant t. Il correspond donc à l‘ensemble des taches restant à automatiser. Cette quantité décroit avec le temps. Il est fort à parier qu’en 2018, le travail de contrôleur de train ne fasse plus partie du travail marginal, puisqu’ayant été automatisé entre les 2 périodes (portiques et caméras alors entrés en activité). Il en va de même pour quantité de travails associés à des taches plus ou moins complexes que les machines effectueront à terme intégralement ou en partie à la place des humains.

Malgré une accélération de ce type d’automatisation, il reste chaque jour une quantité importante de taches à effectuer par les humains.  Ces taches sont principalement liées aux activités de soins et de contrôles (soin des espaces communs : villes, quartiers, transports en communs, immeubles, parcs ; et contrôles : sécurité de ces différents lieus), de nos Exo-organismes. Ainsi qu’une participation humaine accrue : soutiens aux urgences, entraide, maintiens du lien social, éducation. Finalement, ce dont nous jouissons tous, auxquels beaucoup pourraient donner davantage que la contrepartie monétaire qui les en dégage (parfois à leur dépend) et dont la réalisation partagée ne dépend que de la décharge de leur emploi du temps.

 

Si j’appelle WM, le travail marginal, c’est-à-dire la quantité de taches liées au soin et au control des communs restants à réaliser à un instant t, considérons 2 options pour que ces taches soient effectivement réalisées :

  • Concentration du WM sur un nombre restreint d’individus : situation actuelle. Ce sont par exemples nos contrôleurs de trains, mais aussi nos infirmières, nos éboueurs, nos nettoyeurs de rues…qui exercent ces métiers à plein temps et qui voient progressivement leurs effectifs se réduire (par l’automatisation mais aussi par diminution des budgets associés) et viennent mécaniquement alimenter les situations de chômages et de précarités. Système de mono-activités, d’ultra spécialistes.
  • Répartition du WM sur l’ensemble des citoyens en capacité de participer à ces taches. Ce qui représentait des emplois à plein temps se voit alors réduit à WM/nb, soit quelques jours par mois (ou quelques heures par semaine). Nous voyons ainsi que l’automatisation progressive n’a pas le même impact : la diminution continue et à venir du WM génère un impact distribué et non plus concentré. A travers ce type de répartition, c’est toute une diversité de combinaisons d’activités qui s’exprime, y compris des spécialistes (chirurgiens, informaticiens par ex.), qui maintiennent une part d’activité responsable envers les communs.

C’est vous l’aurez compris sur cette 2e option que je poursuivrai cet article.

La constitution d’équipes équilibrées et la transmission des savoir-faire à travers l’action.

Des équipes donc, pourquoi pas tirées aléatoirement, en assurant toutefois un équilibre des niveaux de maitrise pour que la transmission des savoir-faire se réalise de façon continue sur des populations qui se rencontrent, se parlent et réalisent ces taches, indépendamment de leurs métiers propres et de leurs appartenances. Et ce, dans l’objectif de prendre soin ensemble des environnements qui nous conditionnent.

 

Les conditions de réalisation.

S’assurer que chacun ait, en contrepartie de sa participation (5j/mois), un retour décent, de logement, de soin d’éducation, d’alimentation et peut-être pour cela, en conditionnant toute perception monétaire (y compris celles provenant d’autres fonctions/activités exercées) à cette participation aux taches communes.

Il faudra s’assurer que les personnes qui exercent ces taches aujourd’hui (de manière répétitive, ie à plein-temps) puissent maintenir au moins le même niveau de vie qu’aujourd’hui. Celui-ci correspond aux 20% de revenus les plus faibles de la société, c’est-à-dire au strict minimum pour assurer les besoins primaires de logement et d’alimentation. 20% de revenus les plus faibles en contrepartie de la plus grande part (80% ?) de la pénibilité au travail.

 

Valeur d’action > (est supérieure à) valeur d’usage et autres gains indirects.

Il est possible que ce temps de contribution soit bénéfique, pour les équilibres personnels mais aussi globaux, en partant de l’hypothèse que le fait d’éprouver l’effort lié à la réalisation (valeur d’action : nettoyer une rame de métro), permette de rendre les usages plus respectueux, plus conscient et ainsi de constituer une meilleure évaluation personnelle de la valeur d’usage (non plus définie par le coût monétaire, parfois complètement dé-corrélée de l’effort de réalisation).

Le meilleur moyen de profiter de quelque chose n’est-il pas de participer à sa réalisation ? D’en capter la valeur, qui n’est plus alors uniquement une valeur d’usage mais aussi une valeur d’effort.

L’ensemble de ces taches ne reposant plus sur un nombre restreint d’individus sous pression, les structures de soin seront perpétuellement actives et entretenues par l’ensemble.

Le fait que la grande majorité d’entre nous, dés qu’il en est capable (16 ans par exemple), participe à une multitude de fonctions de prise de soin / de contrôle permet un accès équilibré aux fonctions, aux métiers et peut aboutir au déclenchement de passions, de talents, de prédispositions, d’affinités, de spontanéité. Cette répartition constitue donc un élargissement des savoir-faire fondamentaux à l’échelle individuelle tout en assurant une continuité des métiers existant, à réinventer et à inventer. La simple confrontation avec la tache étant parfois révélatrice d’aptitude et de gouts pour ces activités. Il n’y a aucune raison de se passer de ce potentiel gisement d’idées. Ainsi, les penseurs de machines/automates, les enseignants, les médecins, ceux dont le métier se spécialise par un approfondissement, pourront  aussi transmettre une partie de leurs savoirs pointus lors de ces participations récurrentes.

Illustration : les services d’urgences étouffent, ce n’est pas un secret, dans ce cadre, la participation dés 16 ans pourraient y prendre place : prises en charges administratives, 1ers soins, maintiens en éveil des arrivants, transmission des observations à des personnes plus qualifiées, réparation du matériel, etc…d’une part, chacun d’entre nous apprendrait les bases de ces prises en charges et d’autres part, l’apprentissage continu pourrait venir compléter les rangs des soignants, voir déclencher des passions, détecter des aptitudes particulières et former des médecins de métiers. La condition étant que même ceux-ci continuent à dédier une part de leur emploi du temps à la prise en charge d’autres communs…nous voyons bien ici que cette participation comblerait une partie des besoins de nos hôpitaux mais aussi nous permettrait aussi d’acquérir des savoir-faire essentiels à notre survie et notre équilibre.

 

Le caractère primordial de la contribution à l’éducation.

Il semble que nous tombions souvent d’accord avec le fait qu’en l’éducation se trouve la source d’un monde meilleur, plus respectueux, plus juste. Conclusion récurrente de nombres de nos conversations, quelque soit le point de départ, à partir du moment où l’on souhaite répondre par une piste de solution à une problématique de moyen à long-terme. Le système évoqué ici est par nature un système de transmission des savoirs. Chaque citoyen en capacité de transmettre pourrait contribuer à l’éducation des plus jeunes, via des cours théoriques en maintenant un système d’enseignement proche du système public actuel. L’aspect pratique étant couvert spontanément par les participations aux soins des communs.

 

Pour une réelle prise en compte de la pénibilité au travail :

Il n’est pas aisé de mesurer la pénibilité au travail mais les nouveaux outils, y compris les objets connectés pourraient rapidement nous y aider.

Pour faire simple : 2 approches :

  • En temps-réel : mesure du nombre d’effort répétés et impliquant une certaine forme de souffrance infligée au corps (ex : mouvement des bras répétés, position assise prolongée => douleurs dorsales continues, difficultés à marcher…) et à l’esprit (ex : yeux rivés sur un écran, tâches répétitives => maux de têtes, douleurs dorsales, abrutissement…)
  • Post-effort (batch) : mesure de l’écart des durées de vie en bonnes santé par métier.

Dans les 2 cas, il convient d’appliquer une méthodologie « toutes choses égales par ailleurs ».

Ainsi, le résultat de l’une ou l’autre approche ci-dessus ou des 2 combinées peut constituer une pondération représentant la pénibilité au travail.

Constat majeur : les pénibilités sont différentes selon qu’elles s’appliquent à 1 seul individu ou à un groupe d’individus.

Illustration : 1 travail à réaliser : 1 éboueur (arrière camion) travaille pendant 6 heures consécutives, il aura vidé 200 poubelles, marché 6km, sauté du camion 200 fois en descente et 200 fois en montée, aura poussé un poids total de 3,2tonnes avec ses bras (et en appui sur ses jambes)…poussée ?

Or, au fur et à mesure que son travail avance, la pénibilité augmente (il y a alors accélération de la pénibilité), supposons une forme exponentielle (faible augmentation de la pénibilité au début, puis une progression de plus en plus forte et accélérée).

Au cours de la 1ère heure, la pénibilité est supposée constante, puis elle s’accentue les heures suivantes pour atteindre son maximum à la dernière heure.

P1 = 1 ; P2 = 1,5 (2eme heure 50% plus pénible) ; P3 = 2,5 ; P4 = 4, P5 = 6 ; P6 = 9

Ptotal1 = 24

Supposons maintenant que la tache de travail soit partagée entre 6 individus, se relayant toutes les heures (ou même la situation ou 2 travailleurs se relaient d’h en h, cependant il reste le critère de répétition), nous voyons ainsi la pénibilité totale tombée à Ptotal2 = 6.

Et nous voyons bien ici que la somme de la pénibilité Pt1 > Pt2, ce qui conduit au rejet de l’hypothèse d’égalité des sommes dans le contexte de la pénibilité concentrée et distribuée.

 

La pensée comme capacité à nous organiser.

Il est fort possible que cet article vous paraisse extrême et soit assez souvent qualifié d’utopique et je m’attends à des objections mais rien ne m’enlèvera l’espoir que nous somme capable de nous organiser, c’est-à-dire de penser, de penser pour panser, de réfléchir pour des causes nobles en puisant dans ce qui nous rallie pour tendre vers l’amélioration continue de nos conditions de vie, sous contraintes individuelles, collectives et environnementales.

La pensée est cette aptitude dont l’objectif est de nous organiser. Serons-nous capable de faire en sorte qu’elle ne repose pas sur la compétitivité d’un pays (ce qui encourage la concurrence internationale déloyale) mais bien sur la capacité de son peuple, aux peuples à s’organiser, à coopérer pour rendre cela possible ?

 

Autres questions : la suite du capitalisme est-il une réinvention tardive d’une forme de communisme (velib, autolib, partage des biens et des idées, open-source, …, Intelligence Artificielle) ? Avec quels objectifs et quelles contraintes allons-nous (vont-ils ?) nourrir les IA qui prendront (prennent déjà) des/les décisions à notre place ?

Auteur : Jonathan Petit

 

https://www.universalis.fr/encyclopedie/division-du-travail/

https://fr.wikipedia.org/wiki/Taylorisme

https://www.usinenouvelle.com/article/il-y-a-100-ans-ford-inventait-le-travail-a-la-chaine.N207040

http://www.lemonde.fr/economie/article/2014/09/23/jeremy-rifkin-la-troisieme-revolution-industrielle-a-commence_4493076_3234.html

Définitions et critiques de l’IDH

L’objectif est ici de se familiariser avec la notion d’Indicateur de Développement Humain et de montrer une partie des biais qu’il comporte.

Dans une seconde partie, il s’agira aussi de se poser les questions : « Quel est selon-vous le meilleur indicateur de développement humain ? », « Qu’est-ce qu’un bon développement aujourd’hui ? Et demain ? » Il semble évident que cette question possède une dimension philosophique et nous ne nous attarderons pas ici sur la notion de vertu collective.

La notion de développement implique une évolution, l’IDH est un indicateur qui s’observe dans le temps. L’IDH étant un classement, c’est une évaluation relative.

 

  • La construction de l’IDH

L’IDH est la combinaison de 3 indicateurs : santé (longévité), éducation (durée de scolarisation) et pouvoir d’achat (revenu en parité de pouvoir d’achat).

Formule de calcul de l’IDH = (IL+ IE + IP) / 3

IL= Indicateur de l’espérance de vie

IE = Indicateur du niveau d’éducation

IP = Indicateur du produit intérieur brut (PIB) par habitant

 

  • Critique 1 de l’IDH : il ne prend en compte que des effets moyens.

Les 3 sous-indicateurs de l’IDH sont évalués de telle sorte qu’ils s’estiment par la valeur moyenne d’un pays par rapport aux valeurs moyennes ou extrêmes mondiales.

Calcul des indicateurs composants de l’IDH =

(Valeur observée – valeur minimale) / (Valeur maximale – valeur minimale)

Ainsi, les valeurs maximales et minimales prises en compte reflètent les moyennes de chaque pays (moyennes intra-pays).

 

Exemple de calcul (la longévité au Vietnam) :

Si l’on se focalise par exemple sur l’indicateur de longévité au Vietnam, il est évalué de la façon suivante :

ILvn = (75,2 – 20) / (83,4 – 20) = 0,87

L’indicateur de longévité est mesuré par la méthodologie de calcul de l’espérance de vie :

  • Classement par âge de la population vivante au début de l’année 2012.
  • Pour chaque âge, on calcule la proportion de personnes décédées en 2012. Par exemple, en 2012 en France, le taux de mortalité d’une personne de 30 ans est de 0.07%.
  • Dans un second temps, les démographes se basent sur une génération fictive de 1 000 personnes. Sachant que la mortalité des individus qui ont moins d’un an en 2012 est de 4 ‰, ils retirent 4 individus et ainsi de suite : à l’âge de 30 ans, ils retirent 0,07 % des individus restants, et ce jusqu’à ce qu’il ne reste plus aucun individu. À la fin de l’opération, tous les membres de cette génération fictive sont décédés, il ne leur reste alors plus qu’à faire la moyenne des âges de décès observés.

 

Même si cet indicateur permet de corriger une partie des effets limitant sa pertinence (y compris l’effet pyramide des âges ou déformation de la population), il ne permet toutefois pas de retranscrire complètement l’effet distribution de l’espérance de vie sur la population : une mortalité infantile importante pouvant être compensée par un petit groupe de personnes vivant bien au-delà de l’espérance de vie moyenne du pays considéré et ainsi masquer les effets de dispersion (intrinsèque à la définition de moyenne). Ainsi, cet indicateur de longévité ne reflète pas les inégalités internes aux pays face à la santé et la durée de la vie (Vietnam ici).

Nous pouvons émettre une critique similaire à l’indicateur d’estimation de la durée de scolarisation : il ne s’agit que d’une valeur moyenne qui ne reflète pas sa distribution dans la population donnée. Par exemple, dans un pays donné, si une petite partie de la population étudie considérablement plus longtemps que la plus grande partie de la population, la durée de scolarisation moyenne sera mécaniquement tirée vers le haut par ce petit groupe très scolarisé. Cet effet ne sera pas retranscris par la valeur de la durée moyenne de scolarisation.

 

Ces observations nous amènent à considérer le premier biais d’analyse de l’IDH :

Le Biais lié au fait de ne pas tenir compte de la distribution des sous-indicateurs (longévité, santé et scolarisation) : l’IDH se base sur des effets moyens qui ne retranscrivent pas les écarts au sein des populations par pays.

Nous procédons malgré tout à une analyse à l’échelle nationale puisque c’est avec ce champs que nous sommes le plus familiarisé et que les données existent à cette échelle.

 

Illustration du biais lié au fait de se limiter à la considération des moyennes :

L’IDH traduit donc un effet global de développement, sans considérer le critère d’homogénéité ce de développement au sein des pays observés. Ainsi, des pays très inégalitaires en termes d’espérance de vie, d’éducation et/ou de revenus peuvent se retrouver parmi les mieux classés (classement IDH) et vice et versa. Cet indicateur ne délivre donc pas d’information à l’échelle individuelle mais bien à l’échelle de l’individu moyen d’un pays. Si l’on imagine un exemple extrême et que l’on considère un pays fictif de 2 habitants :

En 2010

  • L’individu A1 qui décèdera en 2010 à l’âge de 87 ans, aura été scolarisé 12 ans et touche un salaire annuel (en PPA) de 40 k€
  • L’individu B1 décède également en 2010 mais à l’âge de 48 ans, aura été scolarisé 6 ans et touche un salaire annuel (en PPA) de 25 k€

 

En 2015

  • L’individu A2 qui décèdera en 2015 à l’âge de 92 ans, aura été scolarisé 12 ans d’études et touche un salaire annuel (en PPA) de 45 k€
  • L’individu B2 décède également en 2015 mais à l’âge de 48 ans, et aura été scolarisé 6 ans d’études et touche un salaire annuel (en PPA) de 25 k€

 

Ce pays présentera un meilleur score IDH en 2015 qu’en 2010 (l’individu moyen y vit plus longtemps et a un revenu plus élevé en 2015 qu’en 2010), pourtant les inégalités se sont accentuées en son sein, ce que ne reflète pas l’IDH. Le score global sera ainsi tiré vers le haut par l’individu A2 dont les conditions d’existence se sont améliorées par rapport à l’individu A1, malgré la stagnation des conditions de vie de l’individu B2 par rapport à l’individu B1. Cet individu étant dans une situation relativement plus précaire en 2015 qu’en 2010 (par rapport à l’ensemble de la population du pays).

Ce type de constat nous suggère de considérer la dimension d’égalité comme critère de développement humain. Nous sommes en mesure d’attendre d’une société qui se développe, que l’ensemble des acteurs qui la constitue en bénéficie.

 

Piste d’amélioration 1 : l’observation des valeurs médianes.

Une meilleure estimation du développement pourrait être obtenue en considérant les valeurs de longévité et de durée de scolarisation médianes (telles que la moitié de la population vit plus longtemps ou que la moitié de la population étudie plus longtemps) de ces populations.

L’indicateur de médiane a pour qualité de ne pas être influencé par les valeurs extrêmes, contrairement à la moyenne. Il apporte donc une information complémentaire essentielle par rapport à la celle-ci.

Limite : malheureusement, ces valeurs médianes ne sont disponibles que sur un nombre restreint de pays.

 

Piste d’amélioration 2 : la prise en compte de la qualité des distributions (introduction du coefficient de Gini).

Concernant l’indicateur de revenu au sein des populations, il existe un indicateur qui permet de prendre en considération la distribution du revenu au sein d’une population. Il s’agit du coefficient de Gini, disponible sur la plupart des pays. Il mesure l’écart entre une distribution parfaitement égalitaire des revenus et la distribution réelle des revenus.

Le coefficient de Gini est exprimé par une valeur comprise entre 0 et 1 (0 étant la distribution parfaitement égalitaire).

Pour la suite de l’analyse, nous utiliserons le coefficient de Gini inversé et multiplié par 100. Ainsi la variable IGini est un nombre croissant de l’égalité situé entre 0 et 100 (100 étant la situation d’une égalité parfaite des revenus).

Graph Lorentz

Tout d’abord, nous nous posons ici la question du lien entre classement IDH et répartition des richesses. Autrement dit, existe-t-il un lien entre la richesse globale d’un pays (représenté ici par son revenu moyen) et sa capacité à répartir équitablement ses richesses (reflété ici par le coefficient de Gini) ?

Le graphique suivant a pour objectif de décrire la relation entre le revenu moyen par personne en 2013 (en abscisse) et la mesure de l’égalité de la distribution de ces revenus (Inverse de Gini, en ordonnée). Chaque point représente le couple (revenu moyen per capita ; Gini) d’un pays donné.

Income Gini.jpg

Interprétation : il n’y a donc pas de corrélation avérée entre le revenu moy/hab et le coefficient de Gini. En d’autres termes, le revenu/hab n’explique pas à lui seul la qualité de la distribution des revenus dans la population d’un pays.

Pourtant, nous remarquons que parmi les pays les plus riches (en termes de revmoy/hab), le coef de Gini inversé est systématiquement élevé par rapport à la moyenne de l’ensemble des pays. Cependant, n’est-on pas en droit d’attendre une meilleure homogénéité dans la distribution des revenus lorsqu’il s’agit de moins en moins de satisfaire les besoins vitaux ? Avec l’augmentation du revmoy/hab, il apparait normal que les systèmes de mutualisation et de redistribution viennent harmoniser la distribution des revenus.

Notion de besoins incompressibles : de l’autre côté (sur les valeurs faibles de revenu), nous ne pouvons déduire de lien entre un revenu moy relativement peu élevé et un quelconque impact sur le coef de Gini. Autrement dit, plus le revmoy est faible et plus le coefficient de Gini est indépendant du revenu moy. Nous trouvons également de nombreux exemples de pays relativement égalitaires aux revenus moy/hab faibles. Nous pourrions pourtant nous attendre à ce que le coefficient de Gini inversé soit plus élevé parmi les pays aux plus bas revmoy/hab, du fait que plus nous descendons vers les bas revmoy/hab, plus ces revenus sont utilisés à la satisfaction des besoins vitaux et par nature plus dispersées. Idée que moins les biens sont liés à la survie, plus leur possession est inégalement distribuée. Et bien que la diversité de l’alimentation soit une richesse. Il est également à considérer que parmi les pays les plus pauvres (en termes de revenu monétaire), une proportion plus importante des échanges est réalisée en dehors du circuit monétaire (et donc non pris en compte dans le calcul des indicateurs).

Il nous paraîtrait plus juste d’introduire cette notion de distributions dans l’IDH pour qu’il reflète le développement humains dans le sens de « tous les humains » (AHDI = all human dev index).

Une remarque importante, les pays à IDH les moins élevés et faisant partie des pays où l’on vit le plus longtemps et à temps de scolarisations les plus longs atteignent donc ces 2 facteurs avec un revenu moyen moins important, en parité de pouvoir d’achat. Il est tant à parier que les pollutions qu’ils génèrent sont également moins importantes. Lien consommation énergétique (voir partie 3).

 

 

La corrélation entre le revenu et la valeur de l’IDH :

Le graphique ci-dessous nous montre qu’il existe une corrélation très significative entre classement IDH et revenus/moyen par pays, qui ne permet pas d’expliquer à elle seule une telle sur/sous-évaluation dans le classement.

IDH Income.jpg

Les revenus moyens expliquent à eux seuls une grande partie l’IDH et ce parce qu’espérances de vie et durées de scolarisation moyennes sont elles-mêmes corrélées au revenu moyen. En économétrie, on considère dans ce cas que l’apport d’information des variables « longévité » et « scolarisation » à la constitution de l’IDH est relativement faible par rapport à l’information déjà apportée par le revenu.

 

 

 

 

D’un point de vue logique personnelle, il nous viendrait plutôt à l’esprit de ne pas prendre en compte le revmoy/hab, étant admis qu’il est corrélé avec ces 2 indicateurs et donc déjà représenté de manière indirecte par ces derniers. De plus, il existe une corrélation entre le revmoy/hab et les émissions de CO2 (et d’autres types de pollution) et de façon plus générale avec la consommation énergétique.

En effet, la variable cible, l’IDH représente un indicateur de santé physique, éducative et économique. La crédibilité que nous associons à l’espérance de vie comme mesure de santé publique et de la durée de scolarisation comme celle de l’éducation, sans tenir compte des biais des indicateurs utilisés, est plutôt facile à accorder (bien qu’il s’agisse d’une mesure purement quantitative). Mais surtout, quid de ce qu’est une bonne santé économique ? Des régions qui assurent de bons niveaux de longévité et d’éducation s’appuyant sur des niveaux de richesses relativement inférieurs ne sont-ils pas plus efficaces énergétiquement ? N’assurent-elles pas en ce sens un meilleur développement ?

Il ne serait en tout cas pas souhaitable de détériorer la cohésion sociale là où elle existe.

Revenus, consommation énergétique et pollution sont liés :

income-co2

*:CO2 per capita 2010, Rev PPP k$

Comme on le voit ci-dessus, pollution et revenu sont liés, même si on observe une plus grande dispersion du niveau de pollutions dégagées sur les hauts revenus.

Ainsi, l’introduction du revenu comme critère d’évaluation du développement humain pose question. En cela, je ne saurais m’exprimer sur le signe à y associer, pouvant signifier davantage de dépendance vis-à-vis de l’énergie et des impacts collatéraux. Et ce aussi, parce qu’il est déjà introduit par les 2 autres composantes de l’indice.

On est alors en mesure de se poser la question du sens de l’influence de la partie du développement liée aux richesses monétaires les plus importantes.

IDH Gini.jpg

On constate à quel point l’IDH ne reflète pas le caractère de distribution des richesses au sein des populations. Ainsi, l’IDH ne restitue pas l’information d’égalité des revenus, c’est une autre manière d’observer ce que nous disons précédemment, il n’existe pas de corrélation entre revmoy/hab et distribution des richesses. Autrement dit, les pays les plus riches n’assurent pas systématiquement une meilleure distribution de leurs richesses.

income-lifeexp

 

La corrélation est logarithmique, il faut un écart de revenu de plus en plus important pour assurer une longévité supérieure identique. Sur des revenus très faibles, l’espérance de vie chute très vite : en dessous de 2000$ par an, on vit rarement au-delà de 55 ans. Il faudrait aussi pouvoir observer la distribution des espérances de vies dans chacun des pays, ainsi que leurs évolutions. La différence moyenne de revenu entre les pays ou l’espérance de vie est de 75ans et ceux où elle est de 80ans correspond à un doublement de ce revenu (passant ainsi de 20k$ à 40k$). Et repose sur un doublement du niveau moyen de pollutions dégagées.

Comment prendre en compte le revenu sachant qu’il est lié au niveau de pollution…le calcul du développement hors revenu revient en quelque sorte à évaluer longévité et éducation en utilisant le moins de ressources naturelles, matérielles. C’est bien ici dans une optique de sobriété énergétique et de ces ressources que nous nous situons.

L’idée n’est donc pas ici de remplacer l’idh mais de proposer un indicateur qui regroupe espérance de vie, éducation, égalité et responsabilité environnementale.

3  indicateurs possibles :

  • Esp, scol, revenu corrigé de gini.
  • Esp, scol, Gini (on considère alors que l’ensemble des inégalités correspondent à celle du revenu, ce qui est vérifié au niveau de la comparaison par pays).
  • Esp, scol, pollutions (ou revenu en négatif).

 

 

Culture et politique étant étroitement liées, le coefficient de Gini est calculé par pays, ce qui se traduit en un effet ou biais « échelle pays » lors des calculs agrégés (Gini européen). Il faudrait disposer des revenus par quantiles sur chacun des pays pour l’estimer correctement. Il serait alors possible de s’inscrire dans une vision déliée du facteur pays. Cela a un sens pour comprendre la redistribution internationale, officielle et élaborées par les outils politiques sur certaines zones (Europe, Zones sous traités de libre-échange,…) mais également pour s’inscrire dans une analyse sans a-priori « pays » et ainsi d’étudier l’organisation multi-échelles sous-jacente. Ce qui pourrait se traduire par une redéfinition des zones à considérer sur certaines problématiques. Il serait par exemple intéressant de l’étudier par ville et d’évaluer la considération de proximités sur différents critères, en cela qu’elles sont similaires ou différentes.

Par exemple, nous pourrions considérer les 10% d’européens les plus pauvres et calculer leur revenu moyen et ainsi de suite, jusqu’au 10% les plus aisés.

Il serait intéressant de regarder comment se comporte le coefficient de Gini géographiquement, quel est sa valeur moyenne et sa variance sur certaines zones. Cela reflèterait les écarts ou « la variance intra » zones, par exemple sur l’Europe.

A creuser :

Sorte de critère d’homogénéisation des conditions de vie. Notion de proximité importante ?

La moyenne européenne, pondérée par la population par pays est de ?

Source Data : United Nation Development Program

 

Auteur : Jonathan Petit

 

Définitions IDH et classements :

https://fr.wikipedia.org/wiki/Indice_de_d%C3%A9veloppement_humain

http://www.journaldunet.com/economie/magazine/1170004-classement-idh/

http://dictionnaire.sensagent.leparisien.fr/Variance%20(statistiques%20et%20probabilit%c3%a9s)/fr-fr/

http://www.larousse.fr/dictionnaires/francais/corrélation/19435

http://citeetculture.over-blog.com/article-attali-pour-l-euthanasie-a-62-ans-57318950.html

 

81% des brésiliens pensent que le Brésil n’aurait pas du organiser la Coupe du monde 2014.

Ces 81% de brésiliens pensent que ces fonds auraient pu être utilisés à meilleur escient.

sotd  50.0  12062014 001

59% des sondés au niveau mondial partage cette idée.

 

Dans le monde, 75% des individus pensent que la Coupe du monde est plus axée sur le sponsoring d’entreprise que sur l’esprit sportif (86% au Brésil).

 

Les 2/3 des individus, toutes nationalités confondues, associent Coupe du Monde et corruption.

70% prévoient de regarder la compétition.

75% pensent que la Coupe du monde est plus axée sur le sponsoring d’entreprise que sur l’esprit sportif (86% au Brésil).

 

Les plus susceptibles de la regarder viennent de Corée du Sud (93 %), Turquie (85 %), Argentine (85 %), Italie (83 %), Inde (80 %), Allemagne (79 %), Mexique (78 %), Indonésie (77 %), Brésil (77 %) et Arabie Saoudite (75 %).

Ils sont plus nombreux à affirmer qu’ils prévoient de regarder des rencontres que les sondés d’Espagne (73 %), Roumanie (70 %), Afrique du Sud (70 %), Chine (69 %), Égypte (67 %), Pologne (64 %), Suède (64 %), Grande-Bretagne (63 %), Japon (62 %), Hongrie (59 %), Belgique (57 %), Russie (53 %), États-Unis (50 %), France (49 %), Australie (49 %) et Canada (47 %).
Source : Ipsos, le 10 Juin 2014
Lien : http://www.ipsos.fr/ipsos-public-affairs/actualites/2014-06-10-bresil-futur-vainqueur-coupe-monde-foot

Elections européennes 2014, qui a voté? Seuls 27% des -35ans ont votés (26% pop et 16% des votants), ils constituent les votes les plus marqués aux extrêmes (FN, FDG) et les nouveaux partis; les + de 60 ans (31% pop) représentent 43.5% des votants, plus portés sur les partis historiques (PS, UMP).

Si l’on compare ces résultats aux élections municipales de mars dernier, on constate que parmi les électeurs qui se sont déplacés pour ces élections européennes, il y a une surreprésentation de partisans du FN. Il s’agit donc d’un vote ou les anti-européens semblent s’être davantage mobilisés que les pro-européens, indifférents ou déçus de l’Europe telle qu’elle se réalise aujourd’hui.

Stat40

A travers l’observation des résultats, c’est plutôt le profil du votant que l’on étudie et non pas l’expression de l’ensemble de la population. Une majorité français ont négligé cette élection.

 

Les abstentionnistes:

Étant donné le faible taux de participation, à 42.5%, l’élection n’est pas représentative des choix de la population française.

Les abstentionnistes sont plus jeunes, issus de classes sociales moins valorisées (employés, ouvriers, chômeurs), plus pauvres et légèrement plus féminins que l’ensemble de la population.

Un grand manque d’information est ressorti par rapport à ces élections européennes. Mais l’abstention constitue ici également un moyen d’exprimer son mécontentement à l’égard des responsables politiques en général. Enfin, seul 1 abstentionniste sur 3 pense que ces élections ne changeront rien à leur vie quotidienne.

Enjeux du vote:

L’immigration est le sujet qui compte le plus pour les votants (31%), viennent ensuite le pouvoir d’achat (30%), la crise dans la zone euro (27%), le chômage (27%), le maintient de la paix en Europe (21%)…

64% des votants souhaitent renforcer les pouvoirs de décision de notre pays, même si cela doit limiter ceux de l’Europe.

Toutefois, 72% souhaitent que la France reste dans la zone Euro (34% des électeurs du FN).

51% considèrent que dans ce contexte de crise, l’appartenance à l’union européenne aggrave les effets de la crise sur les français.

Sur les mesures que devraient prendre l’UE en priorité, on trouve en première position « Un système permettant à l’Union Européenne d’augmenter les droits de douane face aux pays qui ne respectent pas les règles du commerce international ».

 

Conclusion:

L’électorat d’extrême droite c’est mobilisé en masse et est donc sur-représenté à ce scrutin. Malgré cela, 72% des votants sont pour un maintient de la France dans la zone Euro. Les résultats semblent donc une manifestation de la déception face aux politiques menées à l’échelle européenne mais aussi nationale. Cette enquête fait également ressortir une peur que l’Europe soit plus laxiste à l’égard des normes mises en place à l’échelle nationale (protection du salarié, immigration) et un souhait de protectionnisme à l’égard du commerce international.

L’UE actuelle est perçue comme une voie vers plus de flexibilité (du travail, des normes), et donc comme une perte de singularité, comme un moyen de faire sauter les règles nationales dont certaines avaient pour objectif de protéger ses citoyens et donc comme un moyen supplémentaire de laisser au capitalisme et aux marchés financiers internationaux toute la place pour s’exprimer sans contrainte (Voir « Zone de libre échange transatlantique »).

Pensez-vous qu’une consultation plus régulière des citoyens européens puisse instaurer une confiance accrue envers les politiques et institutions européennes ?

Source: Ipsos, Élections Européennes 2014 Comprendre le vote des français

Lien: http://www.scribd.com/fullscreen/226037674?access_key=key-9AG0U9qTnlWwgTmt0bUh&allow_share=true&escape=false&view_mode=scroll

 

Santé : près d’un Français sur deux a dû renoncer à des soins ou à une consultation en raison d’un coût jugé trop élevé.

L’évolution de la qualité et de la sécurité des soins de ces 5 dernières années questionnent un tiers des Français. Ils mettent en parallèle une certaine dégradation des conditions d’accès aux soins et des conditions de travail du personnel.

Stat39

Les Français ont le sentiment d’une médecine à deux vitesses: inégalités territoriales, ceux qui ont de l’argent ont plus de possibilités de se faire soigner (92%), les innovations et les traitements ne sont pas proposés à tous les patients (74%) et des inégalités de traitement selon les patients (58%).

Malgré cela, les Français considèrent leur système de santé comme le meilleur du monde. Ce bon résultat s’appuie sur la reconnaissance d’un dynamisme français de la recherche et de l’innovation auxquels l’hôpital contribue significativement. Une égalité d’accès garantie dans les hôpitaux publics (78% des Français), mais une perception de sélection par les cliniques privées (68% des Français). Pour 1 Français sur 2, le droit et l’information des patients restent stables et progressent même pour 1 tiers d’entre eux.

Ils sont toutefois inquiets et portent un jugement lucide sur les menaces qui pèsent depuis plusieurs années sur l’hôpital et notre système de santé.

Une large majorité des Français dénonce la problématique de l’organisation des soins : engorgement des hôpitaux, manque d’hôpitaux en France, mauvaise gestion des hôpitaux publics, la mauvaise coordination des acteurs.

Que pensez-vous de la privatisation progressive du système de santé?

Source : Ipsos, 21 Mai 2014

75% des fonds investis sur la question de la neutralité du net sont positionnés contre celle-ci (fonds dépensés entre 2005 et 2013).

Aux US, 10 groupes sont pro-neutralité et 10 groupes anti mais la balance penche du côté des « anti » qui ont investis 75 millions de dollars entre 2005 et 2013 (Vs 25 millions dépensés par les pro-neutralité).

Stat38

L’écart c’est réduit à 3 contre 1 suite à la prise de position de Google sur la question (18.8 millions investis en faveur de la neutralité du net). Il était historiquement de l’ordre de 5 contre 1.
L’arrivée de Google dans la partie n’a cependant pas découragé les détracteurs de la neutralité du net. Ceux-ci ont-ils perçu Google comme une menace sérieuse, ou se sont-ils sentis portés par l’échec de la FCC face à Verizon ? Toujours est-il qu’ils n’ont, sauf en 2012, pas cessé d’augmenter leurs dépenses de lobbying.

« Les principaux groupes pro-neutralité ont publié 176 rapports mentionnant la neutralité du net. Mais les organisations anti-neutralité les ont largement dépassés, déposant 472 rapports mentionnant la neutralité du net. C’est un ratio de 1 à 2,7. »

Les principaux groupes anti-neutralité sont Verizon Communications, AT&T, Comcsat Corp.

AOL, Level 3 (opérateur et CDN), Google, Microsoft et Apollo Investment Management sont les principaux défenseurs de la neutralité du net.

« Internet c’est par définition le réseau neutre sur lequel on c’est mis d’accord pour s’interconnecter ». B.Bayart

Cette question ne devrait-elle pas reposer sur un choix démocratique?

Source : ZDNet, le 19 Mai 2014

Lien : http://www.zdnet.fr/actualites/la-neutralite-du-net-aux-etats-unis-une-affaire-de-lobbies-39801261.htm

Video sur la neutralité du Web (Interview B.Bayart) : http://www.agoravox.tv/actualites/technologies/article/interview-de-benjamin-bayart-sur-44896

La part des terres cultivables non cultivées dans le monde est de 60%.

Stat37

Pour l’étude GAEZ (2009), la superficie des terres aptes à la culture pluviale* quel que soit le mode de gestion, représente 27% des terres émergées, soit 3 573 millions d’ha pour les terres très convenables, convenables et modérément convenables à la culture et 4 152 millions en incluant les terres considérées peu convenables.

 

Près du quart des terres aptes à la culture sont aujourd’hui recouvertes de forêts, qui correspondent à 1/3 des espaces forestiers du monde. Les régions dont plus de 30% des terres cultivables sont recouvertes de forêts sont l’Amérique du Sud, l’Amérique du Nord, l’Afrique centrale et la Russie.

 

Un tiers des terres émergées est recouvert de forêts, alors qu’environ un autre tiers est utilisé pour des usages agricoles ou pastoraux. Les infrastructures urbaines et autres n’occupent qu’un faible pourcentage des terres émergées.

Les estimations des superficies de terres cultivées de SAGE donnent 1 805 millions d’ha en 1992. Les céréales occupent 55% de ces surfaces, les oléagineux 15%, les légumineuses sèches 5%, les racines et tubercules 4%, les cultures sucrières 2% et les autres cultures 19%.

Les estimations de pâturages permanents FAO (UN Food and Agriculture Organisation)et SAGE sont similaires (3% de plus pour la FAO), mais cette proximité des moyennes mondiales cache des estimations divergentes sur les différents continents qui se compensent au niveau global.

 

Selon l’auteur de l’étude : «il apparait que, en dépit des divergences, des incertitudes et des limites des bases de données que nous avons étudiées, les superficies utilisables en culture pluviale et non encore cultivées sont très étendues à l’échelle du monde, de plusieurs grandes régions et de nombreux pays, en particulier en Amérique du Sud et en Afrique subsaharienne. En revanche, cette ressource apparait comme rare, voire épuisée, au Moyen-Orient et en Asie compte tenu des méthodes employées pour juger de l’aptitude des terres à la culture.»

Voir Statoftheday du 28 Avril 2014 (La croissance de l’agriculture chinoise en Afrique).

 

(*) : L’étude GAEZ (IIASA – International Institute for Applied Systems Analysis et FAO) donne des informations sur les potentialités agricoles des terres, sur la base de leur aptitude à la culture de 154 variétés végétales, ainsi que les rendements accessibles selon trois modes de gestion théoriques, «avancé», «amélioré» et «traditionnel» en culture pluviale et irriguée. Cette analyse se base essentiellement sur des critères agronomiques et écologiques. Elle ne prend pas véritablement en compte les paramètres socioéconomiques.

Source : AGTER, Janvier 2013

Lien : http://www.agter.asso.fr/article944_fr.html

Au Portugal entre 2002 et 2012, le nombre de toxicomanes a diminué de 47%. Ils sont moins de 50 000 aujourd’hui dont la majorité sont suivis régulièrement.

En 2001, le Portugal a choisi de décriminaliser toutes les drogues. Elles ne sont toutefois pas légalisées, on ne peut pas transporter, consommer ou vendre de la drogue en toute impunité. La possession et la consommation ne sont plus considérés comme des crimes mais comme des infractions.

Stat36

Le taux de jeunes de moins de 20ans ayant essayé au moins une drogue est passé de 14% à 10.6%.

La transmission du VIH parmi les usagers a baissé de 17% sur la même période. Le nombre de décès engendrés par la consommation de drogues a chuté de moitié.

La comparaison des données européennes et portugaises fait apparaitre que le pourcentage d’adultes prenant des drogues dans le pays est devenu l’un des plus faibles de l’UE : 11,7% de consommateurs de cannabis contre 30% au Royaume-Uni ; 1,9% prennent de la coke contre 8,3 % chez le voisin espagnol.

Pensez-vous que l’on devrait mettre en place une telle politique à l’égard des drogues à l’échelle européenne?

Source : Eurostat + CATO Institute

Liens :
http://www.ofdt.fr/BDD/publications/docs/edr2013rap.pdf
http://object.cato.org/sites/cato.org/files/pubs/pdf/greenwald_whitepaper.pdf

En France, les taux d’intérêts moyens sont respectivement de 8.11% pour les découverts, de 2.7% pour les prêts à l’habitat court terme (ou taux variables) et de 3.2% pour les crédits nouveaux à l’habitat long terme (ou taux fixes). Mars 2014.

On observe un ralentissement des crédits aux particuliers.

Stat35

Le taux de croissance annuelle du total des crédits aux particuliers diminue en mars (+2,8%, après 3,2% en février). La progression des crédits à l’habitat se modère (+3,1 %, après +3,5 %) et la contraction de l’encours des crédits de trésorerie s’accentue (- 1,0 %, après – 0,7 %).

 

La production de nouveaux crédits amortissables à la consommation est inchangée d’un mois sur l’autre (3,7 milliards), alors que celle de crédits à l’habitat se replie (9,1 milliards d’euros, après 11 milliards).

 

Les taux d’intérêt moyens des crédits nouveaux diminuent, de façon plus marquée pour les découverts (8,11 %, après 8,29 %) et les prêts à l’habitat à court terme ou à taux variable (2,70 %, après 2,82 %) que pour les crédits à la consommation (5,91 %, après 5,95 %) et les crédits nouveaux à l’habitat à long terme à taux fixe (3,20 %, après 3,22 %).

Lexique :

Les ‘particuliers’ forment un sous ensemble du secteur des ‘ménages’ qui inclut également les entrepreneurs individuels. Sont ici présentés les crédits distribués aux particuliers par des Institutions Financières Monétaires résidentes.

Les taux de croissance des encours sont calculés en corrigeant les variations d’encours des effets ne résultant pas de transactions économiques, en particulier les passages en perte de créances irrécouvrables.
Les taux d’intérêt moyens pondérés ainsi que les montants de contrats nouveaux sont calculés conformément aux définitions harmonisées de la BCE. Les taux recensés sont des taux effectifs au sens étroit (TESE), ils correspondent à la composante intérêt du Taux Effectif Global (TEG).

Source : Banque de France, « Crédits aux particuliers », Mai 2014

Lien : https://www.banque-france.fr/economie-et-statistiques/stats-info/detail/credits-aux-particuliers.html