Overblog Suivre ce blog
Administration Créer mon blog
12 février 2013 2 12 /02 /février /2013 07:42

Astrium, filiale spatiale du groupe EADS, va "se battre contre une baisse des carnets de commandes" en 2013 après plusieurs années de forte activité et vise quatre commandes de satellites, a indiqué lundi le directeur de son usine toulousaine, Eric de Saintignon. Astrium avait enregistré trois commandes en 2012 et quatre en 2011.

Comme son concurrent mais aussi souvent partenaire, Thales Alenia Space, Astrium prévoit un cycle creux pour les satellites de télécommunications en 2013-2014 et une concurrence de plus en plus dure avec les groupes américains. En 2012, Astrium a réalisé un chiffre d'affaires de 5,8 milliards d'euros, en progression de 17% grâce à l'acquisition de la société de services Vizada et de 7% hors Vizada. Les prises de commandes se sont élevées à 3,8 milliards d'euros contre 3,5 milliards en 2011, a récemment indiqué le président d'Astrium, François Auque.

"Le plan de charge reste élevé mais le carnet de commandes se dégarnit, car le marché commercial mondial tombe autour de 16-18 commandes par an contre 24-25 ces dernières années" a estimé le patron d'Astrium Toulouse, la plus importante unité spatiale d'Europe. Quelque 3.600 personnes y travaillent (2.800 salariés d'Astrium et 800 sous-traitants in situ) répartis sur trois sites voisins dans le sud-est de Toulouse. Après y avoir augmenté les effectifs de 1.000 personnes au cours des cinq dernières années, Astrium compte embaucher un peu plus de 100 personnes à Toulouse en 2013.

 

Source : Le Figaro

LIRE AUSSI :

» Astrium accélère à l'international

Repost 0
3 février 2013 7 03 /02 /février /2013 13:06

A mi-chemin entre fantasmes et cauchemars, les robots ont toujours fasciné les humains. Alors qu'ils envahissent l'industrie et la Bourse, les avis divergent entre ceux qui les considèrent comme les sauveurs de l'économie et ceux qui les voient comme les meurtriers de l'emploi.

Atlantico : Alors que vient de se conclure la conférence Automate 2013 à Chicago, la question de la robotisation de la société et particulièrement de l’industrie est chaque jour plus brûlante. Entre paranoïa technophobe et prophétisation d’une révolution, les robots sont de plus en plus présents dans notre société. Comment différencie-t-on fondamentalement un robot d’une simple machine ?

Robin Rivaton : Le robot industriel a une définition précise qui obéit à la norme ISO 8373. Le robot est un manipulateur contrôlé automatiquement, reprogrammable à usages multiples, programmable sur trois axes au minimum, qui peut être fixé sur place ou mobile en vue d’activités de production industrielle.

Le robot se différencie donc de la machine-outil par la possibilité qu'il a de réaliser différents types de tâches.Il apporte ainsi une plus grande flexibilité à l'outil de production permettant de produire des séries de taille plus restreinte, exigence première dans un monde où la production de masse semble s'éloigner de plus en plus et où le cycle de vie des produits se réduit.

Mais, aujourd’hui, les robots industriels ne trouvent leur place qu’au sein du champ plus large de l’automatisation industrielle. D’ailleurs la robotique ne représente que ~5% d’un marché de l’automatisation en pleine évolution, avec par exemple la commercialisation d’imprimantes 3D de plus en plus performantes.

Jean-Paul Laumond : Ce que l’on appelle une "simple machine" est une machine directement commandée par un opérateur : un aspirateur par exemple est une machine que l'on doit guider. Un robot possède une capacité d'adaptation qui lui permet de se passer d'une commande directe par un opérateur : il existe aujourd'hui des aspirateurs automatisés qui vont explorer tous les recoins de votre appartement. Ils possèdent des capteurs qui leur permettent de se situer dans l'espace et ils ont des stratégies d'exploration de l'espace ; ils savent s'adapter à différents environnements : ce sont des robots. Il reste qu'un robot n'est rien d'autre qu'une machine commandée par un ordinateur.

Jean-Gabriel Ganascia : L’idée de robot est définie par l’autonomie, c’est une machine capable de se mouvoir d’elle-même. Cependant, l’autonomie peut prendre deux sens dans le débat sur la robotisation et l’automatisation, celle de l’autonomie mécanique et celle de l’autonomie morale et nous sommes pour l’instant essentiellement limité à la première. Une machine a malgré tout à sa disposition un nombre d’actions considérable et peut décider de ses actions dans une certaine mesure, en fonction de son environnement et de sa finalité. A l’aube de la création d’automates, les inventeurs parlaient de machines téléologiques, qui pourrait se traduire par machine agissant dans une finalité. Le robot se définit donc comme une machine particulière capable d’analyser, au moins en partie, son environnement et d’agir en fonction.

Les avis divergent sur le ratio création/destruction d’emploi qu’engendrerait à terme la robotisation de l’industrie. Qu’en est-il vraiment ?

Robin Rivaton : La clé d'une révolution technologique de cette ampleur est son acceptabilité sociale, j'ai donc particulièrement étudié l'impact sur l'emploi. Et je vous assure qu'il sera positif.

Positif parce que l'industrie française perd déjà plusieurs dizaines de milliers d'emplois chaque année sous l'effet d'un manque de compétitivité face à la concurrence internationale. Les robots, en améliorant la compétitivité coût et hors coût de l'appareil industriel français, permettraient de sauvegarder des sites en France. Mieux encore, face à la montée des coûts salariaux en Asie, le robot offre des perspectives de relocalisation élevées.

Vaut-il mieux une usine en France avec des robots - et les employés pour les entretenir - qu'une usine délocalisée à l'étranger ? Dans un cas, elle paie impôts et cotisations sur le sol national, fait travailler des fournisseurs locaux, dans l'autre rien de tout cela.

De quelle manière cela changerait-il la structure de l’emploi en France ? Quels sont les métiers menacés, ceux qui se développeraient et ceux qui pourraient apparaître ?

Robin Rivaton : La robotisation que j'appelle de mes vœux conduira effectivement à modifier la structure de l'emploi. La filière robotique s'insère dans un environnement économique qui mobilise un grand nombre de ressources humaines à forte valeur ajoutée. De la conception à l’installation, la fabrication de robots industriels requiert l’intervention de plusieurs entreprises, notamment des intégrateurs chargés de penser l'installation du robot au sein de la ligne de production. Plusieurs dizaines de milliers de postes seraient nécessaires dont une majorité de professionnels de haut niveau, ingénieurs et techniciens spécialisés.

En outre, les robots ne fonctionnant pas seuls, il faut des employés pour en assurer la maintenance et la surveillance, environ une personne par cellule robotique. Ces nouveaux postes sont des reconversions logiques pour les employés œuvrant auparavant sur la chaîne de production, en les débarrassant de tâches usantes ou pénibles.

Les robots sont-ils potentiellement capables d’initiatives réelles telle la reprogrammation ou la prise de décision face à une situation inconnue, ou sont-ils structurellement condamnés à une dépendance humaine ? Quels en sont les dangers potentiels ?

Jean-Paul Laumond : Le robot aspirateur que j'évoquais n'est pas dépendant de vous dans la tâche pour laquelle il est destiné. Il sait prendre des initiatives, telles qu'aller recharger tout seul ses batteries. En revanche il est évident qu'il ne prendra pas l'initiative de faire la vaisselle pour la simple raison qu'il n'a pas été conçu pour cela. Il n'y a pas d'initiatives possibles qui n'aient été conçues par l'humain. Il peut y avoir des pannes de la machine ; mais on ne peut pas considérer la panne de votre machine à laver comme une prise d'initiative de sa part !

Toute évolution technologique porte en elle des dangers potentiels auxquels la société s'adapte. L'utilisation de l'automobile se fait au prix de plusieurs milliers de morts par an. Le passage à l'aéronautique s'est fait dans des conditions drastiques de sécurité qui font aujourd'hui de l'avion un système de transport plus sûr que la voiture, mais qui n'empêchent pourtant pas l'accident. La robotique n'a pas de spécificité particulière par rapport à cet état de fait. Les normes de sécurité auxquelles les robots industriels sont soumis sont drastiques : il y a beaucoup moins d'accidents humains que lorsque des opérateurs pilotaient de "simples machines". Il en est de même pour les robots qui aident un chirurgien dans l'opération d'une tumeur. Aucun accident notoire n'a été révélé dans l'utilisation des robots-aspirateurs.

Jean-Gabriel Ganascia : Bien souvent, les machines sont capables de prendre des décisions qui surprennent leurs concepteurs. Les recherches actuelles sur l’intelligence artificielle sont très actives sur le sujet afin de prévenir d’éventuels problèmes comme la mise en danger des êtres humains dont l’action pourrait contrevenir à l’objectif programmé des robots. Les soldats-robots sont bien évidement au cœur du débat éthique sur l’intelligence artificielle. Certains pensent que la solution passerait par l’inclusion dans les programmes des règles éthiques de la guerre définies par les accords internationaux comme le fait de ne pas tuer de civils. Malheureusement, la réalité des guerres modernes et leur imprécation avec les structures civiles rend cela très complexe. Il y a également le débat de l’opposition de machine à machine mais cela relève d’une toute autre problématique. Il y a déjà plusieurs exemples réels dans lesquels le débat éthique à mener à la régulation de l’automatisation. Les drones par exemple ne sont pas encore autorisés à tuer dans déclenchement humain alors qu’ils peuvent se déplacer de manière autonome. De la même manière, sont placés sur la frontière entre les deux Corées, des automates qui tirent sur ce qui traverse. Le concept a tellement choqué les Coréens qu’ils ont établi un code éthique robotique pour éviter les dérives.

De plus, l’application de règles éthiques strictes n’est pas forcément la meilleure solution pour éviter les accidents car l’idéal serait plutôt d’intégrer dans les programmes des logiques supérieures. Les robots seraient ainsi à même de régler les dilemmes plutôt que d’appliquer brutalement une règle sans analyse. Les débats qui sont au cœur de la robotique sont en fait de vieilles problématiques philosophiques remises en avant comme l’opposition de Benjamin Constant et Emmanuel Kant autour de la vérité, mais encore l’âme dont Descartes considérait les animaux dépourvus en les considérant comme des automates.

Une automatisation totale de la société pourrait-elle remettre en cause le rôle de l’homme dans la société en le débarrassant/le privant du travail ?

Robin Rivaton : Effectivement, à long terme, nous pourrions imaginer une réflexion d’ampleur sur le rapport de l’homme au travail et à la répartition de la production. Cependant nous sommes encore très loin d’apercevoir les simples prémices d’une telle évolution. Les robots industriels ne sont pas capables d’évoluer de manière autonome et dans le champ des services, malgré des progrès très rapides, la robotique reste cantonnée à des applications expérimentales, encore éloignée d’une diffusion massive au sein de la société.

Jean-Paul Laumond : Ici encore la question n'est pas propre à la robotique. L'homme est déjà "privé" (pour reprendre votre terme) des travaux pénibles dans les mines d'extraction de charbon. Convenez qu'on pourrait dire qu'il en est libéré ! L'introduction du métier Jacquard au dix-neuvième siècle a considérablement transformé l'industrie textile et a conduit à la révolte des Canuts. L'industrie automobile a été la première à remplacer l'homme par des robots. La robotique est vue aujourd'hui dans ce secteur comme une solution alternative aux délocalisations. Les voitures de demain seront des robots qui vont permettre de réduire considérablement le nombre de morts sur les routes. Il est difficile aujourd'hui de prédire tous les effets de l'automatisation. La technologie détruit des savoir-faire et modifie les savoir-vivre ; ce n'est pas nouveau, et les sociétés démontrent une grande plasticité à cet égard. La robotique participe de cette dynamique, il ne faut pas projeter plus : le robot reste et restera une machine.

Jean-Gabriel Ganascia : Les robots sont déjà extrêmement présents dans l’industrie mais ils ne privent pas pour autant les humains du travail, ils changent simplement les taches auxquelles nous nous consacrons. De nombreux scientifiques et économistes pensent même qu’en améliorant la compétitivité des entreprises, l’automatisation va créer de la valeur et de l’emploi à condition que nous apprenions à changer de métier et que les formations adaptées soient mises en place, que les compétences nécessaires soient acquises. Le robot ne se substitue pas à l’Homme, il l’assiste. Ce n’est pas une intelligence autonome mais une intelligence ajoutée. De plus, nous vivons déjà dans un monde d’automates qui pour l’essentiel ne sont pas physiques, ils sont informatiques, ils régissent une grande partie d’Internet et de places financières. Ce sont même eux qui vont sur Mars. Pour revenir à la question industrielle, la France est en train de prendre du retard en n’agissant pas et en regardant les Allemands, les Italiens, les Japonais et les autres augmenter tous les jours leurs parcs robotiques. Il faut arrêter de voir le travail comme une quantité finie, nous avons simplement changé de logique. L’Homme échange de moins en moins d’énergie avec son environnement mais il échange de plus en plus d’information. C’est ça l’avenir du travail.

Propos recueillis par Jean-Baptiste Bonaventure

Robin Rivaton est consultant en stratégie dans un cabinet américain. Il est diplômé de l’ESCP Europe et de Sciences Po.

Jean-Paul Laumond est titulaire de la chaire d'innovation technologique au collège de France. Il est spécialiste de robotique humanoïde au LAAS-CNRS et directeur de recherche au CNRS.

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .


Source : http://www.atlantico.fr/decryptage/robots-et-technologie-vont-tous-mettre-au-chomage-robin-rivaton-jean-paul-laumond-et-jean-gabriel-ganascia-624957.html#20BKzUoV6BElC4Hu.99

Voir également sur ce blog :

  * Panorama des plus grandes découvertes scientifiques de 2012 (Atlantico.fr)

  * Les neuf technologies du futur qui vont changer le monde (Up' Magazine)  

  * Suivre l'actualité des innovations majeures dans le monde  

  * Quelle innovation pour quelle croissance ?

  * Définir l'innovation (OCDE) 

  * Indice mondial de l'innovation 2012

  * Stratégie de l'OCDE pour l'innovation  

 

  * Strategy for American Innovation : Executive Summary

 

  * Nombre de demandes 'record' à l'OEB - Les USA toujours leaders  

 

  * Quelle concertation pour éclairer les choix nationaux d'investissement en recherche et innovation ? (Rapport de Futuris)

 

  * 50 ans de stratégies publiques de la Recherche et de l’Innovation en France : les trois étapes de l’affaiblissement de la régulation politique (Up' Magazine)

 

  *   Défi de la citoyenneté : "Socialiser l'innovation : un pari pour demain"

 

  * Quelle innovation pour quelle croissance ?

     

  * Innovation – Recherche – Education ! L'Union européenne au banc d'essai de Regards-citoyens.com        

 

  * Prenons garde des pièges que nous tend cette nouvelle religion de l'innovation à tout crin !

     

  *  Le prix de l'inégalité, de Joseph Stiglitz

 

 

 

Repost 0
3 février 2013 7 03 /02 /février /2013 11:52
La Stratégie de l'OCDE pour l'innovation repose sur des travaux importants réalisés par plus de 15 comités et leurs groupes de travail, relevant de 10 Directions de l'OCDE, parmi lesquels de nombreux projets analytiques, des ateliers, des conférences, et une série de tables rondes nationales réunissant des responsables de l'action publique et d'autres parties prenantes. Un Groupe consultatif d'experts de haut niveau fournit des orientations tout au long du processus d'élaboration de cette stratégie.
Les résultats de la stratégie de l’OCDE pour l’innovation ainsi que deux nouvelles publications sur le sujet ont été présentés le 27 mai 2010 :

De plus en plus de pays sont confrontés à la stagnation ou au recul de leur population, et donc de leurs apports en main-d'œuvre, tandis que les investissements en capital physique sont sujets à des rendements décroissants. Ces problèmes économiques coïncident avec un besoin politique grandissant de progresser dans le traitement de divers problèmes sociaux, dont bon nombre sont de nature mondiale (tels que le changement climatique) ou exigent une action à l'échelle planétaire (situation sanitaire mondiale, sécurité alimentaire et rareté croissante de l'eau salubre).

Les innovations réalisées en matière de biens, de services, de procédés et de pratiques peuvent contribuer à accélérer la reprise, et à ramener les pays sur une trajectoire de croissance durable – et plus verte.

 Source : http://www.oecd.org/fr/sites/strategiedelocdepourlinnovation/

 
Repost 0
3 février 2013 7 03 /02 /février /2013 11:48

L'innovation va bien au-delà de la recherche-développement

Loin d'être limité aux laboratoires de recherche, le champ de l'innovation englobe l'ensemble des utilisateurs, des fournisseurs et des consommateurs – que ce soit dans les administrations publiques, les entreprises ou les organismes à but non lucratif – et elle transcende les frontières entre pays, secteurs et institutions

Le Manuel d'Oslo définit quatre types d'innovation : les innovations de produit, les innovations de procédé, les innovations de commercialisation et les innovations d'organisation.

L'innovation de produit

 

L'introduction d'un bien ou d'un service nouveau. Cette définition inclut les améliorations sensibles des spécifications techniques, des composants et des matières, du logiciel intégré, de la convivialité ou autres caractéristiques fonctionnelles.

L'innovation de procédé

 

La mise en oeuvre d’une méthode de production ou de distribution nouvelle ou sensiblement améliorée. Cette notion implique des changements significatifs dans les techniques, le matériel et/ou le logiciel.

L'innovation de commercialisation

 

La mise en oeuvre d’une nouvelle méthode de commercialisation impliquant des changements significatifs de la conception ou du conditionnement, du placement, de la promotion ou de la tarification d’un produit.

L'innovation d'organisation

 

La mise en oeuvre d’une nouvelle méthode organisationnelle dans les pratiques, l’organisation du lieu de travail ou les relations extérieures de la firme.

Documents de référence

Manuel d'Oslo: Principes directeurs pour le recueil et l'interprétation des données sur l'innovation, 3e édition

Source : http://www.oecd.org/fr/sites/strategiedelocdepourlinnovation/definirlinnovation.htm

Repost 0
6 janvier 2013 7 06 /01 /janvier /2013 10:51

L'année 2012 a été riche en découvertes scientifiques en tous genres, avec en premier lieu celle de la particule de Dieu, le fameux boson de Higgs. De la réalité augmentée de Google à un hypothétique vaccin contre le Sida, tour du monde des découvertes les plus impressionnantes.

La découverte de la particule de Dieu par le LHC (Large Hadron Collider, traduction française : Grand Collisionneur de Hadrons) est LA plus grande découverte de l'année 2012, selon une des plus prestigieuses des revues scientifiques, Science, jeudi 20 décembre.
Les scientifiques cherchent le boson de Higgs, surnommée la "particule de Dieu", depuis plus de quatre décennies. En juillet, l'équipe du centre de recherche nucléaire européen de l'organisation européenne pour la recherche nucléaire (Cern) à Genève a annoncé la détection d'une particule qui correspondait à la description de l'insaisissable boson de Higgs.

Le boson de Higgs est une particule associée au mécanisme de Brout-Englert-Higgs supposé être à l'origine des masses de particules élémentaires : des quarks, des leptons et surtout des bosons W et Z du modèle électrofaible. Un journaliste de Forbes, Alex Knapp, a estimé que le coût de la découverte du boson s'élevait à 13,25 milliards de dollars, soit un peu plus de 10 milliards d'euros.

Le LHC est situé dans un anneau de 27 kilomètres et enterré à 100 m sous terre à la frontière franco-suisse, près de Genève. Il est désormais le plus puissant des accélérateurs de particules au monde. Des protons (ou des ions) de très haute énergie circulant dans deux faisceaux tournants à contre-sens se choquent les uns contre les autres, dans le but de rechercher des indices de la supersymétrie, de la matière noire et de l’origine de la masse des particules élémentaires. C'est comme cela qu'une capture du boson de Higgs a pu être faite.

La particule avait d'abord été découverte par un physicien britannique Peter Higgs, professeur depuis presque 50 ans, lorsqu'il avait 34 ans et travaillait à l'Université d'Edimbourg. Mais jusque-là, personne n'était parvenu à prouver que sa théorie était vraie.

Parmi les autres découvertes de l'année, citées par la revue Science :

  • Un ancêtre éloigné. Les scientifiques ont séquencé le plan ADN des Denisovans, une espèce humaine éteinte qui a vécu aux côtés  de nos ancêtres.
  • Faire des oeufs à partir de cellules souches. Des chercheurs japonais ont montré que les cellules souches embryonnaires de souris peuvent devenir des cellules d'oeufs viables.
  • Envoyer Curiosity sur Mars. Les ingénieurs de la mission de la Nasa ont déposé le Rover Curiosity en toute sécurité et avec précision sur la planète Mars. Ils ont utilisé une "grue spatiale" et trois câbles.
  • Plus puissant que les rayons X. Les chercheurs ont utilisé un "laser à rayons X", qui brille un milliard de fois plus que les sources de rayonnement synchrotron traditionnels, afin de déterminer les causes de la maladie du sommeil africaine. Ce nouveau laser permet de détecter des protéines que les rayons X "traditionnels" ne voient pas.
  • Rendre inactif des gènes. Un outil connu sous le nom TALENs, qui signifie "activateur de transcription de type nucléases effectives", a permis aux scientifiques de modifier ou de rendre inactifs des gènes spécifiques chez les animaux comme les poissons zèbres et des crapauds et des cellules de patients atteints de maladies.
  • Des particules d'antimatière. L'existence de fermions de Majorana, qui agissent comme particules d'antimatières et se cannibalisent entre eux, a été débattu pendant plus de 70 ans. Cette année, une équipe de physiciens et de chimistes aux Pays-Bas a fourni la première preuve solide que cette matière exotique existe, sous la forme de quasi-particules. Ce sont des groupes d'électrons interactifs qui se comportent comme des particules solitaires.
  • L'ADN plus utile que prévu. Selon 30 articles d'une étude révélée cette année et qui a duré dix ans, le code génétique humain est plus fonctionnelle que les chercheurs le pensaient. Bien que seulement 2% du génome conditionnent les protéines, l'encyclopédie des éléments d'ADN et le projet Encode ont indiqué que près de 80% de celui-ci est utile pour faire activer ou désactiver des gènes.
  • Interface cerveau-machine. Des scientifiques ont montré que les patients paralysés pouvaient déplacer un bras mécanique avec leur esprit et effectuer des mouvements complexes en trois dimensions. La technologie est encore au stade expérimental, et coûteuse, mais l'équipe a bon espoir qu'un jour elle aiderait les patients paralysés par des attaques cardiaques ou les blessures à la colonne vertébrale.
  • Résolution du mystère des neutrinos. Des centaines de chercheurs travaillant sur l'expérience du réacteur de neutrino de la baie de Daya en Chine, ont résolu la dernière partie du puzzle décrivant comment les neutrinos changent d'état ou de "parfum" lorsqu'ils atteignent la vitesse de la lumière. Les neutrinos pourraient aider les chercheurs à expliquer pourquoi l'univers contient autant de matière et si peu d'antimatière .
  • Fusionner le réel et le virtuel. Google, en présentant son projet Glass, a révolutionné le principe de réalité augmentée. A chaque fois qu'il y aura un morceau de verre entre vous et le monde, il y aura de l'information : des applications, de la communication, des jeux... Ces lunettes de réalité virtuelles devraient être en vente en 2014.
  • Un test de dépistage contre le cancer du pancréas simple et pas cher. C'est un jeune homme de 15 ans, Jack Andraka, du Maryland qui a fait une des découvertes les plus importantes de l'année. Cette idée, qu'il a eu en cours de biologie au lycée, a été d'utiliser une simple bande de papier pour détecter le cancer du pancréas. Simple, pas cher, et plus efficace que les tests qui existent auparavant.
  • Un vaccin contre le SIDA ? Une étude publiée dans le New England Journal of Medecine a prouvé que le médicament Truvada, qui existe depuis 2004 pour soigner le VIH, est aussi une "stratégie prometteuse" pour prévenir contre le Sida. Depuis la découverte du SIDA, on estime que 21,8 millions de personnes sont mortes du syndrome

En savoir plus sur http://www.atlantico.fr/decryptage/panorama-plus-grandes-decouvertes-scientifiques-2012-586795.html#ELt8tBzmUQevzLHu.99

Voir également : La chasse au boson de Higgs par CNRS

Repost 0
14 novembre 2012 3 14 /11 /novembre /2012 18:36

L'exploitation du gaz de schiste pose des «risques élevés» pour le sol, l'air, l'eau de surface et l'eau souterraine, selon un nouveau rapport rédigé à la demande de l'Union européenne et rendu public au début du mois.

Cette étude paraît alors que quelques pays européens, dont la Pologne et l'Angleterre, envisagent d'exploiter cette ressource afin de remplacer les champs gaziers traditionnels locaux qui s'épuisent ou de s'affranchir des importations.

D'autres nations, comme la France et la Bulgarie, estiment de leur côté que la technique de fracturation hydraulique nécessaire pour extraire le gaz de schiste est trop risquée pour le moment.

Le nouveau rapport, rédigé par un consortium de cinq firmes de consultants, penche du côté des pays plus prudents. En particulier dans le contexte européen, où la population est très dense. En effet, l'intensité des champs gaziers risque de causer des dommages irréversibles à l'agriculture et de nuire de façon permanente aux autres usages du sol et du milieu, comme le tourisme et la villégiature.

«Il faudra environ 50 puits de gaz de schiste pour remplacer un seul puits gazier de la mer du Nord», note le rapport.

Les auteurs calculent que l'industrie gazière occuperait à elle seule 1,4% du territoire au-dessus d'un gisement, alors que d'autres usages comme l'habitation, l'industrie et le transport n'occupent ensemble que 4% du territoire européen. C'est l'unique élément recevant la cote de risque «très élevé» dans le rapport.

Par ailleurs, les auteurs estiment que le risque de contamination des eaux souterraines est «élevé», compte tenu des accidents et des défauts qui peuvent altérer le coffrage des puits de gaz de schiste. Risques qui sont multipliés du fait que les puits eux-mêmes sont très nombreux. En outre, ils n'écartent pas la possibilité que des fractures naturelles dans le sous-sol produisent des contacts entre les zones fracturées par l'industrie et les nappes d'eau potable.

La pollution de l'air due à la machinerie lourde nécessaire à l'exploitation du gaz de schiste est également ciblée comme un risque «élevé».

L'ensemble des activités de l'industrie comporte aussi un risque «élevé» pour la biodiversité, en raison de la pollution et de la fragmentation des habitats.

Le rapport décèle plusieurs lacunes dans la réglementation actuelle en Europe. Il recommande de s'inspirer des mesures mises en place aux États-Unis et au Canada afin de mitiger certains de ces risques.

Deux fois mieux que le charbon

Dans le deuxième tome de ce même rapport, toutefois, le gaz de schiste reçoit une bonne note pour son impact sur le climat mondial.

Les auteurs rejettent notamment les conclusions du professeur Robert Howarth, de l'Université Cornell, fréquemment citées par les opposants au gaz de schiste, selon lesquelles cette ressource est pire que le charbon en matière de gaz à effet de serre (GES).

D'après l'étude européenne, le gaz de schiste causerait l'émission d'un peu plus de 400 grammes de GES par kilowattheure d'électricité. C'est deux fois moins que le charbon. Et il s'agit d'un niveau comparable au gaz importé de Russie ou aux importations de gaz naturel liquéfié.

Source : http://www.lapresse.ca/environnement/pollution/201209/21/01-4576504-rapport-inquietant-sur-le-gaz-de-schiste-en-europe.php

Repost 0
14 novembre 2012 3 14 /11 /novembre /2012 14:59
A l'occasion de la présentation du chiffre d'affaires trimestriel du groupe, Arnaud Lagardère a confirmé, devant des analystes, que sa sortie du capital était "très probable en 2013", expliquant que le programme du futur A350 était "de mieux en mieux engagé, tout comme celui de l'A400M", ce qui lui donnait "une fenêtre" pour céder sa participation.
Repost 0
14 novembre 2012 3 14 /11 /novembre /2012 12:39

Vous conviendrez sans doute avec moi que le marché boursier n'est pas à proprement parler un modèle en termes d'évolution régulée. La Bourse de New York (NYSE) est la dernière en date à avoir vécu un lundi chaotique. Le volume était faible ce jour-là parce que le trading de 216 de ses 3 825 actions était suspendu. En effet, le moteur de trading de la Bourse ne fonctionnait pas correctement. 

Un moteur de trading semble être quelque chose de compliqué. On peut imaginer que cela puisse tomber en panne. Mais la frontière entre la complexité technique et l'incompétence est subtile. Des transactions aux volumes et à la fréquence élevés mettent plus de pression que jamais sur le hardware qui gère les Bourses du monde. C'est une course à l'armement. Et les Bourses ne peuvent plus suivre. 

Se pose aussi le problème des attaques sur la Bourse depuis des lieux comme le 'Piratistan' et 'Cyberia'. Ce ne sont pas des lieux réels bien sûr. Mais c'est dans la logique de ce que nous mettons en lumière ici. N'importe qui possédant un clavier, un modem et des connaissances en informatique peut cibler le marché boursier ou un titre individuel à des fins malveillantes. 

Un homme vient d'être emprisonné à Hong Kong pour avoir mené une attaque par déni de service distribué (DSD) sur le site Internet d'informations de la Bourse de Hong Kong. Dans une attaque DSD, le serveur qui gère un site Internet est submergé par tant de sollicitations en même temps qu'il s'arrête. 

Il ne s'agissait pas de n'importe quel site. C'était celui où sont publiées des annonces sensibles sur l'évolution des prix. Le coup de pub de Tse Man-lai a obligé la Bourse à stopper le trading de huit titres dont HSBC. On ne peut pas avoir un marché régulé là où certains investisseurs ont accès à des informations susceptibles d'influer sur les cours et d'autres pas, n'est-ce pas ? (Mis à part le fait que cela arrive tous les jours de toute façon). 

L'attaque était totalement un coup de pub parce que Tse dirige une société de cyber-sécurité qui produit des logiciels anti-DSD. Il a pris des captures d'écrans du site Internet après son attaque, espérant les utiliser pour une future campagne marketing. Son but était de montrer quels dégâts une attaque DSD pouvait causer à votre entreprise et l'importance d'avoir le bon logiciel de protection. 

C'est un petit peu comme si les pompiers mettaient le feu à votre maison pour vous montrer l'importance des alarmes incendie. 

Mais il faut s'attendre à une recrudescence de ce phénomène. Le Maréchal Bernanke a effectivement pris la tête du marché boursier et il est devenu le gestionnaire de portefeuille du monde. Son nivellement par le bas des rendements sur l'ensemble du spectre des risques a obligé les investisseurs à devenir des spéculateurs afin de trouver des rendements plus élevés. Il ne faudra pas longtemps avant que n'explose une guerre dans le monde électronique pour lutter contre la manipulation des cours de Bernanke.  

Voir également à ce sujet les articles de la rubrique de ce blog intitulée : La cybersécurité et ses défis

 

Repost 0
14 novembre 2012 3 14 /11 /novembre /2012 07:56

Dans un nouveau rapport, lAgence européenne de cyber-sécurité - ENISA - analyse 85 cyber-exercices nationaux et internationaux ayant eu lieu entre 2000 et 2012.

Au total, 22 pays européens ont mené des exercices de cyber-sécurité à l'échelle nationale au cours des dernières années.

"Un large consensus existe en faveur de la mise en place des cyber-exercices en tant qu'instruments essentiels d'évaluation de l'état de préparationd'une communauté contre les risques cybernétiques, permettant ainsi d'améliorer la réactivité des intervenants contre les incidents d'infrastructures d'information critiques", a commenté le directeur exécutif de l'ENISA, Udo Helmbrecht.

Sur la base des informations recueillies,le rapport constate que l'essentiel des exercices de cyber-sécurité ont eu lieu entre 2010 et 2012 (71% des 85 exercices) en raison d'un contexte politqiue d'ensemble qui favorise ces exercices, de l'importance accrue que leur porte les Etats membres de l'UE, et de la menace croissante d'incidents et d'attaques transfrontaliers.

La coopération en matière de cyber-sécurité s'est également accrue au cours des dernières années et un consensus comence à se former sur la nécessité d'intensifier la coopération entre le secteur privé et le secteur public, la plupart des infrastructures d'information critiques appartenant au secteur privé.

Dans 57% des exercices réalisés, les secteurs public et privé ont pris part à l'exercice, tandis que 41% ont concerné uniquement le secteur public, constate l'ENISA.

Par ailleurs, deux tiers des exercices correspondaient à des execices nationaux et un tiers à des exercices internationaux (64% ont impliqué plus de 10 pays ; 13% entre six et dix pays; 13% entre trois et cinq pays).

74% des exercices ont également retenu l'attention des médias, sensibilisant ainsi le public aux questions de cyber-sécurité nationale.

Au final, l'ENISA émet sept recommandations clés :

 1) mettre en place une communauté mondiale de cyber-exercices plus intégrée ;

 2) assurer l'échange de bonnes pratiques en matière de cyber-exercices, y compris en encourageant la coopération entre les secteurs public et privé ;

 3) soutenir le développement d'outiles de gestion d'exercices pour une meilleure planification, exécution et évaluation d'exercices ;

 4) mener des cyber-exercices plus complexes au niveau intersectroeil, international et européen ;

 5) cinq exercices devraient être inclus dans le cycle de vie des plans nationaux d'urgence et de cyber-crise ;

 6) promouvoir des bonnes pratiques pour des exercices nationaux et initier une méthodologie étape par étape pour les cyber-exercices frontaliers ;

 7) développer des mécnaismes de rétroaction pour exploiter les résultats et tirer les leçons extraites des exercices de cyber-sécurité.

 

Source : Agence Europe

Repost 0
30 octobre 2012 2 30 /10 /octobre /2012 08:08
Les députés de la commission des Finances du Bundestag ont débloqué 1,6 milliards d'euros pour assurer le rachat de la moitié des parts de Daimler dans EADS.
Avec cette somme, la banque publique KfW va pouvoir racheter les 7,5% d'EADS que Daimler souhaite céder.
Repost 0

Penser pour agir !

" Je préférerai toujours les choses aux mots,
et la pensée à la rime !
 "
 

(Voltaire)

 

" L'homme libre est celui qui n'a pas peur d'aller

jusqu'au bout de sa pensée "

(Léon Blum)

 

"La démocratie est d'abord un état d'esprit"

(Pierre Mendès France)  

 

 

Recherche

Catégories