Overblog Suivre ce blog
Administration Créer mon blog
25 novembre 2010 4 25 /11 /novembre /2010 07:31

En 2003, Pascal Dallecoste, chercheur au Laboratoire de Recherche de l'Ecole de Guerre Economique (LAREGE) a publié un document intitulé " qui veut du groupe Carlyle ? " qui propose une analyse approfondie de ce fonds d'investissement aussi singulier qu'intriguant.

Préambule :

Carlyle : c'est le fonds d'investissement privé le plus puissant au monde. Le plus discret, aussi. Non coté en bourse, il n’est pas tenu de communiquer le nom de ses partenaires. Dans son comité de direction, d’ex-ministres côtoient d’anciens représentants des principales agences de régulation américaines et deux anciens directeurs de la CIA. Etroitement connecté au secteur de la défense, il est capable de répondre à n’importe quel appel d’offres, de l’aéronautique aux télécoms, de l’électronique de défense à la décontamination nucléaire, bactériologique et chimique, en passant par la production de chars, de canons, de missiles... Ses participations dans les nanotechnologies, les biotechnologies et les semi-conducteurs en font l’un des principaux centres de recherche et développement sur les infrastructures de l’information, le nucléaire et les programmes génétiques. Jusqu’en 1998, le Carlyle Group était inconnu en France. Il y contrôle pourtant une grande partie de la presse professionnelle et quelques fleurons industriels. Enquête sur un ogre aux visées très stratégiques.

Le document complet : carlyle group carlyle group

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
26 octobre 2010 2 26 /10 /octobre /2010 09:37

En 2006, la consommation finale d’énergie de l’industrie était de 37,4 millions de tonnes équivalent pétrole (Mtep), soit 14,4% de l’énergie finale consommée en France. Cela représente une diminution de 16,5% depuis 1980. Cependant, la consommation semble s’être stabilisée depuis 1990, avec une augmentation de 2% entre 1990 et 2000 puis une diminution de 5% depuis 2000, alors même que la production industrielle augmente de 4% entre 2000 et 2006. Ce résultat exclut les 15,4 Mtep de combustibles fossiles utilisées à des fins non énergétiques par certains secteurs, comme la chimie (solvants) et l’industrie des plastiques.

L’industrie consomme moins d’énergie que le secteur de la production d’énergie (98,2 Mtep), le résidentiel-tertiaire (70,6 Mtep) ou les transports (50,9 Mtep). Part relative des différentes énergies dans la consommation finale énergétique de l'industrie

En 2006, l’industrie a consommé en majorité du gaz à hauteur de 32% et de  l’électricité (31%), des combustibles solides (17,5%) et du pétrole (16%).

L’évolution des consommations depuis 1980 montre une augmentation régulière de l’utilisation du gaz (+79%) et de l’électricité (+43%), en remplacement du pétrole (-68%) et des combustibles solides (-35%). La part des énergies renouvelables reste stable autour de 3%. Cette évolution a permis la réduction du contenu carbone de la consommation énergétique de l’industrie, du fait du développement de l'électronucléaire et du plus faible contenu carbone du gaz. En effet, à énergie fournie égale, la combustion du gaz rejette moins de CO2 que celle du pétrole et du charbon.

En 2006, les secteurs de l’industrie les plus consommateurs d’énergie ont été les industries chimiques (19%), la sidérurgie (18,5%), l’agroalimentaire (14%) et l’industrie du papier et du carton (11%). Ces secteurs consomment à eux seuls près de 63% de l’énergie brute totale utilisée par l’industrie. La chimie organique et l’industrie du papier ont vu leurs consommations augmenter respectivement de +21% et de +4,5% depuis 1990. La chimie minérale, la sidérurgie et les IAA ont globalement diminué leurs consommations de 1990 à 2006 (respectivement -10%, -21% et -3%), mais ont enregistré des augmentations sur la dernière décennie (+28% de 1996 à 2006 pour la chimie minérale, +10% pour la sidérurgie, +20% pour l’IAA).

Cette évolution des consommations d’énergie de 1990 à 2006 montre une forte diminution des consommations pour la fabrication d’engrais (-66%), la production de minéraux (-70%) et l’industrie textile (-75%). Mais ces secteurs ne représentent qu’une très faible part de la consommation brute totale de l’industrie (moins de 4%).

La consommation énergétique de l’industrie dépend des secteurs les plus consommateurs comme la sidérurgie ou l’industrie chimique. Ceux-ci semblent être parvenus à un palier dans leurs efforts pour économiser l’énergie. Une rupture technologique paraît désormais nécessaire pour améliorer de manière significative leurs performances énergétiques.

Consommation brute d'énergie par secteur (NCE) de l'industrie

Secteur (NCE)*

Consommation en ktep

Part en 2006

Variation 1990-2006

Variation 1996-2006

1990

1996

2006

Sidérurgie

9 646

6 920

7 599

18,5%

-21,2%

9,8%

Industrie agroalimentaire

5 969

4 800

5 775

14,0%

-3,3%

20,3%

Autres industries de la chimie organique

4 582

4 253

5 527

13,4%

20,6%

30,0%

Industrie du papier et du carton

3 756

2 748

3 921

9,5%

4,4%

42,7%

Autres industries de la chimie minérale

2 509

1 767

2 264

5,5%

-9,8%

28,1%

Fonderie et travail des métaux

2 322

1 189

1 412

3,4%

-39,2%

18,8%

Production d'autres matériaux de construction et de céramique

1 444

1 008

1 393

3,4%

-3,5%

38,2%

Industrie du verre

1 595

1 356

1 392

3,4%

-12,7%

2,7%

Métallurgie de 1ère transformation des métaux non-ferreux

2 983

1 440

1 315

3,2%

-55,9%

-8,7%

Construction de véhicules automobiles et de transport terrestre

1 867

1 121

1 066

2,6%

-42,9%

-4,9%

Industries diverses

1 117

762

977

2,4%

-12,5%

28,2%

Transformation des matières plastiques

1 105

596

816

2,0%

-26,2%

36,9%

Fabrication d'engrais

2 099

1 700

714

1,7%

-66,0%

-58,0%

Construction électrique et électronique

1 383

868

703

1,7%

-49,2%

-19,0%

Fabrication de matières plastiques, de caoutchouc

1 507

1 516

683

1,7%

-54,7%

-54,9%

Construction mécanique

951

581

615

1,5%

-35,3%

5,9%

Parachimie et industrie pharmaceutique

867

434

551

1,3%

-36,4%

27,0%

Première tranformation de l'acier

404

746

493

1,2%

22,0%

-33,9%

Industrie textile, du cuir et de l'habillement

1 749

987

447

1,1%

-74,4%

-54,7%

Industrie du caoutchouc

635

426

408

1,0%

-35,7%

-4,2%

Construction navale, aéronautique et armement

366

320

378

0,9%

3,3%

18,1%

Production de minéraux divers

445

214

135

0,3%

-69,7%

-36,9%

Industrie des fils et fibres synthétiques

153

86

78

0,2%

-49,0%

-9,3%

Note : Résultats des secteurs de l’extraction et de la préparation de minerais, de la fabrication de plâtres, de chaux et de ciments exclus car couverts par le secret statistique ; *NCE : nomenclature d’activités économiques pour l’étude des livraisons et consommations d’énergie.

Source : Sessi, 2007.

 

Définitions :

 

 

 

 

Consommation d'énergie primaire : consommation d'’énergie brute, c’est-à-dire non transformée après extraction (houille, lignite, pétrole brut, gaz naturel, électricité primaire) correspondant à la consommation finale + les pertes + la consommation des producteurs et des transformateurs d’énergie (branche énergie).

Consommation d'énergie finale : la consommation finale d’énergie représente l’énergie utilisée par les utilisateurs finals (= énergie primaire - les pertes - consommation de la branche énergie).

Consommation brute : production totale brute diminuée du solde exportateur. L’autoproduction de vapeur vendue et la consommation pour l’autoproduction d’électricité ne sont pas déduites. 

 

Voir aussi...

http://www.industrie.gouv.fr/sessi/index.php (Service statistique du ministère chargé de l'industrie)

Source : http://www.stats.environnement.developpement-durable.gouv.fr/donnees-essentielles/activites-humaines/industrie/la-consommation-energetique-de-l-industrie.html

 

 

Repost 0
11 octobre 2010 1 11 /10 /octobre /2010 07:46

Dans un article publié dans l'hebdomadaire L'Express (cf. GE L'Express GE L'Express), le général (en 2ème section) Vincent Desportes considère :

"Nous assistons à une dérive. La performance, recherché par principe, semble s'être subsituée aux raisons qui la justifiaient. L'armement doit être d'abord pensé en fonction de sa capacité à réaliser l'objectif politique poursuivi : cette course à la technologie détourne les budgets de leur efficacité globale. L'idée qu'elle allait compenser la diminution des formats a accéléré le phénomène dans une spirale perverse. On a voulu remplacer les effectifs par la capacité de destruction. Sujette à de multiples contraintes politiques, celle-ci est de plus en plus délicate à utiliser alors que les effectifs ont disparu ... Il est temps de rétablir l'équilibre entre volumes de forces et investissements technologiques. le chef d'état- major des armées rappelait lui-même récemment que les évolutions technologiques devaient adopter des rythmes plus raisonnables. Les armées européennes s'atrophient. Gagner la guerre, c'est contrôler l'espace : qu'il soit aérien, terrestre ou maritime, il faut du nombre. A défaut, les engins les plus perfectionnés deviennent inutiles. La professionnalisation et le Libre blanc ont imposé des réductions drastiques. dans les deux cas, il a fallu diminuer les effectifs pour pouvoir se procurer des matériels aux coûts croissants. Nous sommes arrivés aujourd'hui au stade où les formats des différentes armées deviennent insuffisants. ".

 

Pour en savoir plus, voir également :

 * La recherche et la technologie, enjeux de puissance par David W. Versailles, Valérie Mérindol, Patrice Cardot

 * LA GUERRE TECHNOLOGIQUE EN DÉBAT(S), Sous la direction de Pierre Pascallon (L'Harmattan)

 

 

 

 

 

 

Repost 0
16 septembre 2010 4 16 /09 /septembre /2010 23:04

Google franchit une nouvelle étape : la recherche instantanée. Les résultats de votre requête s'afficheront au fil de la saisie, avant même que vous n'ayez fini de taper le mot et sans avoir besoin de cliquer sur "rechercher". Le gain de temps serait de deux à cinq secondes.

" C'est quasiment de la voyance ", remarque Marissa Mayer, la directrice du moteur de recherche. Un euphémisme. On nous offre bien plus, en réalité. Aujourd'hui, tous les renseignements, même les plus inutiles, sont à portée de clic. La question n'est plus de trouver, mais de savoir ce que l'on recherche. Un jour prochain, Google pourra dire à chacun de nous, à tout instant, s'il doit s'interroger sur la date des prochaines vacances scolaires, l'existence de Dieu ou la longueur moyenne des plumes d'un Indien Navajo.

"Nous voulons que Google devienne le troisième hémisphère de votre cerveau", déclare Sergey Brin, cofondateur du moteur de recherche. Il ne s'agit évidemment que d'une étape. Bientôt le troisième hémisphère mangera les deux autres : nous aurons un cerveau unifié, en parfait état de fonctionnement. Avec peut-être un gain d'une ou deux secondes supplémentaires, ce qui n'est pas à négliger.

 

 

 

 

 

Repost 0
9 août 2010 1 09 /08 /août /2010 14:07

Au 31 décembre 2009, 42,3% de la capitalisation boursière des entreprises françaises du CAC 40 étaient détenus par des investisseurs non résidents, selon une étude parue dans le dernier bulletin trimestriel de la Banque de France. Soit une valeur de 404,5 milliards d'euros sur un total de 955,4 milliards.

Cela représente une progression de 2,1 points par rapport à 2008. Après un pic atteint en 2006, où les investisseurs non résidents détenaient 45,7% du CAC 40, leur part avait diminué, en 2007, puis de nouveau en 2008. L'année 2009 aura donc marqué un retour à la normale.

La part du capital des fleurons français détenue hors du pays est une donnée sensible. L'économie hexagonale souffre en effet d'une faiblesse en matière d'épargne longue investie en actions. Une insuffisance que l'État tente d'ailleurs, à sa façon, de combler, par exemple avec la création fin 2008 du Fonds stratégique d'investissement (FSI). Ses prises de participations tendent à ancrer en France les entreprises qu'il sélectionne.

 

Attractivité de la place 

 

Observés de près, les investissements étrangers à la Bourse de Paris sont aussi le signe d'une attractivité de la place et des grandes entreprises tricolores. Selon la Banque de France - dont l'étude exclut les groupes dont le siège est à l'étranger (Dexia, EADS, ArcelorMittal ou ST Microelectronics) -, 17 d'entre elles seraient détenues à plus de 50 % par les non-résidents. Cette part n'excède cependant jamais les 75 %. Les situations sont en fait très contrastées : EDF, détenu à 84,7% par l'État, est l'un des groupes les moins exposés aux investisseurs étrangers, alors que Lafarge compte moins de 30 % d'actionnaires français. Les entreprises du secteur des technologies de l'information sont détenues à plus de 60% par les non-résidents, contre à peine plus de 20 % pour les services aux collectivités.

En 2009, «les acquisitions nettes des investisseurs non résidents ont été positives à hauteur de 31,5 milliards d'euros», note l'étude. Qui précise : «Les flux enregistrés sont très inégaux selon les titres, puisque 29,7 milliards de ces 31,5 milliards se sont concentrés sur neuf entreprises», souvent concernées en fait par une opération d'augmentation de capital, comme dans le cas des banques BNP Paribas et Société générale.

L'origine géographique des capitaux des non-résidents demeure globalement inchangée en 2009. Les pays de la zone euro restent les principaux détenteurs avec 17% du capital des sociétés du CAC 40, devant les États-Unis (15,6%) et le Royaume-Uni (4,2%). Des investisseurs attirés, d'ailleurs, par le profil de plus en plus international des grandes entreprises qui composent l'indice phare de la Bourse de Paris. Celles-ci réalisent en effet en moyenne près de 40 % de leur chiffre d'affaires en dehors de la France. Lorsque les non- résidents achètent des actions d'une société, ils n'achètent donc pas seulement de la croissance française.

 

Source : http://www.lefigaro.fr/bourse/2010/08/08/04013-20100808ARTFIG00166-les-etrangers-investissent-le-cac-40.php

 

 

 

 

Repost 0
22 juillet 2010 4 22 /07 /juillet /2010 15:11

Les lasers conventionnels, constitués d'un milieu d'excitation, d'un système de pompage et de deux miroirs dont l'un est semi-réfléchissant, sont d'une taille relativement imposante, de l'ordre de la dizaine de centimètres. Celle des diodes laser est beaucoup plus réduite, celles-ci fonctionnant selon un mode bien distinct de recombinaison de paires électron/trou au sein d'un matériau semi-conducteur. Ce gain de taille est l'une des raisons pour lesquelles les diodes, présentes au sein des lecteurs CD, DVD et Bluray, dominent le marché des lasers (58% des ventes en 2009). Bien que réduite, leur taille reste cependant supérieure à la longueur d'onde émise. Des physiciens de l'Institut d'électronique quantique de l'Ecole polytechnique fédérale de Zurich (ETHZ) ont élaboré une microcavité laser dont la taille est près de sept fois inférieure à la longueur d'onde émise, une première mondiale reportée dans la revue américaine Science [1].
Fabriquée sur un substrat d'arséniure de gallium (GaAs) avec la technique d'épitaxie par jets moléculaires, et constituée de plusieurs couches de GaAs dopées, la structure élaborée par les scientifiques zurichois est constituée de deux condensateurs semi-cylindriques reliés entre eux par un inducteur. Ce circuit électronique résonant inductance/capacitance (LC) confine le champ électrique de façon extrême. Par un amplificateur optique, la lumière captée est induite en oscillations électromagnétiques auto-entretenues. La taille du circuit n'est que de 30 µm environ. La longueur d'onde émise est modulable suivant la longueur de l'inducteur : de 210 micro-m pour une longueur d'inducteur de 11 µm, elle est de 192 µm pour une longueur de 8 µm.
" Cela signifie que la taille du résonateur n'est désormais plus limitée par la longueur d'onde de la lumière et peu en principe être diminuée à volonté " souligne Christoph Walther, premier auteur de l'étude. La conception de ces résonateurs LC peut être étendue à des fréquences supérieures aux térahertz. En microélectronique, ils pourraient être intégrés comme composant électro-optiques au sein de puces, ou encore appliqués à des détecteurs et des modulateurs.

   

[1] C. Walther & al., ''Microcavity laser oscillating in a circuit-based resonator'', Science 327, 1495, 19 mars 2010 - http://www.sciencemag.org/cgi/content/abstract/sci;327/5972/1495

 

 

 

Repost 0
31 mars 2010 3 31 /03 /mars /2010 07:10

Le boson de Higgs… Jamais particule n’aura été si farouchement recherchée.  

Les dernières analyses de données des expériences CDF et DZero, réalisées auprès de l'accélérateur Tevatron du Fermilab aux Etats-Unis et dans lesquelles sont impliqués l’IN2P3/CNRS et le CEA/Irfu*, excluent désormais une partie du domaine de masse possible du boson de Higgs, déterminé par les expériences antérieures. Celles-ci contraignaient la masse du boson de Higgs à se situer entre 114 et 185 GeV/c2. Les nouveaux résultats de CDF et DZero excluent une partie de ce domaine, de 160 à 170 GeV/c2, ce qui implique que le boson de Higgs, s'il existe, a une masse qui se situe soit entre 170 et 185 GeV/c2, soit, plus probablement, entre 114 et 160 GeV/c2.

Le boson de Higgs est la pierre angulaire de la théorie des particules élémentaires, aussi appelée Modèle standard, qui permet à ce jour d'expliquer tous les résultats microscopiques connus. Le boson de Higgs est une particule élémentaire appartenant à la famille des bosons, qui se distingue de celle des fermions, tels l'électron ou le proton, par ses propriétés rotationnelles intrinsèques (le "spin"). Dans le Modèle standard, le boson de Higgs est nécessaire pour expliquer pourquoi la grande majorité des particules élémentaires ont une masse. Si tout le domaine de masse permis du boson de Higgs venait à être exclu, ce pourrait être une découverte encore plus importante que sa mise en évidence, puisque le Modèle standard serait mis en défaut pour la première fois depuis sa formulation, il y a quarante ans.
 

L'observation du boson de Higgs est aussi l'objectif principal du Large Hadron Collider (LHC) du CERN, qui prévoit de commencer à collecter des données avant la fin de cette année.  

Jusqu'à présent, le boson de Higgs n'a pas pu être détecté directement. Les recherches au LEP (Large Electron Positron Collider) du CERN ont établi que le boson de Higgs devait peser plus de 114 GeV/c2. Les calculs d'effets quantiques appliqués à d'autres observations expérimentales mesurées principalement au LEP et au Tevatron, impliquent que sa masse est aussi inférieure à 185 GeV/c2. Avec ce nouveau résultat, il y a maintenant une grande probabilité pour que le boson de Higgs du Modèle standard ait une masse comprise entre 114 et 160 GeV/c2 (par comparaison, la masse du proton est de 0,9 GeV/c2).  

 Ce succès du Tevatron dans l'exploration du domaine du boson de Higgs a été rendu possible par les performances de l'accélérateur et par l'amélioration continuelle des techniques d'analyse des physiciens de CDF et DZero. Ceux-ci cherchent le boson de Higgs soit “directement” à travers ses possibles produits de désintégrations, soit “indirectement” via des mesures très précises de propriétés de certaines particules déjà connues, qui pourraient témoigner de la présence du boson de Higgs. Pour améliorer leurs chances de le trouver, les physiciens des deux expériences combinent les résultats de leurs analyses, ce qui revient en pratique à doubler la quantité de données pour cette recherche. Cette combinaison permet aussi à chacune des expériences de vérifier en détail les résultats de l'autre expérience, et d’adopter en commun les meilleures techniques d'analyse.

Jusqu'a présent CDF et DZero ont analysé environ 3 femtobarn-1 (unité utilisée pour compter le nombre de collisions) de données. Chaque expérience s'attend à enregistrer 10 femtobarn-1 d'ici la fin 2010. Le Tevatron continue à établir de nombreux records d'intensité de production d'antiprotons et de taux de collisions instantanées, ce qui laisse espérer une quantité finale de données encore plus importante que celle prévue actuellement.

Ce résultat de recherche du boson de Higgs est l'un des 70 nouveaux résultats présentés par les collaborations CDF et DZero à la conférence internationale annuelle sur la Physique électrofaible et les théories unifiées, ou rencontres de Moriond, qui se sont tenues du 7 au 14 mars, à La Thuile en Italie.

A noter que les deux collaborations ont également présenté deux autres résultats lors de cette conférence :
- la première observation de la production rare du quark top de manière isolée, par interaction électrofaible, qui confirme encore une fois le Modèle standard (Fermilab collider experiments discover rare single top quark, 9 mars 2009 :  http://www.fnal.gov/pub/presspass/press_releases/Single-Top-Quark-March2009.html ),
- la mesure la plus précise jamais faite dans une seule expérience de la masse du boson de W, par l’expérience DZero, ce qui aura aussi des répercussions sur les contraintes indirectes sur la masse du boson de Higgs (Fermilab experiments constrain Higgs mass, 11 mars 2009 : http://www.fnal.gov/pub/presspass/press_releases/W-Mass-20090311.html ).

*Fermilab est le Laboratoire national de Fermi, situé près de Chicago, dépendant du Department of Energy (DOE) des USA, et opérant l'accélérateur Tevatron.
CDF, « Collider Detector Facility », est une collaboration internationale rassemblant 602 physiciens appartenant à 63 institutions provenant de 15 pays. Dzero (D0), du nom du point d’interaction sur le Tevatron, où est situé le détecteur, est une collaboration internationale rassemblant 550 physiciens appartenant à 90 institutions provenant de 18 pays.
Le financement des expériences CDF et DZero provient du DOE, de la National Science Foundation et de plusieurs agences de financements internationales, dont l'IN2P3/CNRS et le CEA/Irfu.
 

Pour en savoir plus sur le Boson de Higgs, le Modèle standard et les Modèles alternatifs : cea defis127 04 10 cea defis127 04 10

 

 

 

 

 

 

 

 

 

Repost 0
25 mars 2010 4 25 /03 /mars /2010 06:58

Des chaussettes antibactériennes aux nanoparticules d'argent; du ciment autonettoyant au dioxyde de titane; une crème solaire au même dioxyde de titane; un antiagglomérant pour sucre de table à la silice… Ce sont les quatre produits passés à la loupe par l'Agence française de sécurité sanitaire de l'environnement et du travail (Afsset), qui a rendu, mercredi 24 mars, un avis très attendu sur les "risques liés aux nanomatériaux pour la population générale et dans l'environnement". Verdict : en l'état actuel des connaissances, "le risque ne peut pas être évalué, il ne peut donc pas être exclu".

Cette formulation a minima laissera sur leur faim ceux – consommateurs, industriels, associations – qui espèrent que soient identifiés des risques précis, avec des seuils de dangerosité. Mais en pointant l'insuffisance des données aujourd'hui disponibles, elle invite clairement à la mise en œuvre du principe de précaution. En 2008, l'Afsset avait déjà préconisé ce principe pour les personnels de l'industrie et de la recherche, en recommandant d'"éviter ou minimiser" leur exposition aux nanoparticules. Elle l'étend cette fois à l'ensemble de la population et du milieu naturel. En se fondant sur des exemples concrets.

"Avec les nanomatériaux, il est impossible d'en rester aux généralités. Il faut les examiner au cas par cas, produit par produit, usage par usage,
souligne
Martin Guespereau, directeur général de l'Afsset. Selon la formulation et la matrice où il est incorporé, chaque nanomatériau acquiert une réactivité et un comportement différents." Quatre produits ont donc été retenus, parce que largement utilisés et représentatifs des différentes voies d'exposition directe: cutanée, par inhalation ou par ingestion.

- Le cas des chaussettes antibactériennes
: Dans certaines chaussettes, des nanoparticules d'argent sont intégrées aux fibres pour éliminer les mauvaises odeurs. L'expertise conclut que, "pour l'homme, l'exposition cutanée est non négligeable", même si "les risques sanitaires ne peuvent pas être estimés".

Le passage de la barrière cutanée pourrait être facilité en cas de peau endommagée. Or ces particules peuvent induire un "stress oxydant" provoquant une altération des cellules.

Quant à l'impact environnemental, l'agence calcule, sur la base d'un Français sur dix converti aux chaussettes antitranspiration et de 10 paires achetées par an, que leur lavage entraînerait le relarguage annuel de 18 tonnes de nanoargent dans les milieux aquatiques. Une dispersion qui "devrait faire l'objet d'une attention particulière", le caractère biocide de ces particules présentant "un danger avéré chez certaines espèces animales".

- Le cas du ciment autonettoyant
: le ciment, lui, acquiert, grâce à l'adjonction de dioxyde de titane nanométrique, des propriétés autonettoyantes et assainissantes, par décomposition des dépôts organiques. La voie d'exposition est ici l'inhalation. Les experts notent que "les personnes souffrant d'une pathologie respiratoire constituent des populations sensibles".

Des inflammations pulmonaires et des tumeurs ont été déclenchées chez des rats, avec de très fortes doses, il est vrai.
L'action sur les écosystèmes, où l'usure des bâtiments entraîne une dissémination du dioxyde de titane, reste très mal connue. Des œdèmes des filaments branchiaux ont été observés chez des poissons.

- Le cas des crèmes solaires :
C'est encore du dioxyde de titane nanométrique qui entre dans la composition des crèmes solaires comme agent filtrant les rayons ultraviolets. Les fabricants ont toujours affirmé que ces nanoparticules ne franchissent pas la barrière cutanée. Or, relève l'Afsset, "certaines études récentes montrent qu'elles peuvent se retrouver dans la couche profonde de l'épiderme".

Les peaux lésées (blessées, allergiques ou brûlées), ou celles des enfants sont particulièrement vulnérables. Chez des souris, ces particules peuvent atteindre la rate, le cœur et le foie, et causer des lésions pathologiques. Les rejets dans le milieu naturel sont estimés, pour la France, à 230 tonnes par an, mais l'impact de ces substances, dans leur formulation cosmétique, reste à étudier.

- Le cas du sucre en poudre :
Quant au sucre en poudre, le consommateur ignore qu'il peut – comme le sel de table – contenir de la nanosilice évitant l'agglomération des grains.

Les éventuels dangers sanitaires de cet additif sont inconnus. Chez le rat, une administration orale à forte concentration peut avoir des effets toxiques sur le foie. Pour les écosystèmes, il n'existe aucune donnée.

Analyser le rapport bénéfice-risque

Face à tant d'incertitudes, l'Afsset insiste sur la nécessité de "faire progresser les connaissances sur la caractérisation, l'exposition et la dangerosité potentielle des nanomatériaux". En attendant, elle recommande de mettre en place un "étiquetage compréhensible" informant de la présence de nanomatériaux dans les produits, avec leur toxicité et les risques d'exposition.

Des fiches descriptives fournies par les industriels et rassemblées dans une base de données assureraient "une traçabilité". Ce qui constituerait une première en Europe.

Pour "limiter l'exposition des consommateurs et de l'environnement", les experts préconisent en outre de privilégier, à performances et coût égaux, des produits sans nanoparticules, et de restreindre le recours aux nanoproduits à "faible utilité". A leurs yeux, "une analyse socio-économique du rapport bénéfice-risque" s'impose.

A la société de décider si des chaussettes inodores valent vraiment de répandre des tonnes de substances biocides dans la nature.


NB : Cet article de Pierre Le Hir a été publié dans l'édition du quotidien Le Monde en date du 25 mars 2010

Pour en savoir plus sur ce sujet, le lecteur est invité à prendre connaissance des articles qui y sont consacrés dans la rubrique de ce blog intitulée : Technologies et entreprises en action et en débat


Repost 0
26 février 2010 5 26 /02 /février /2010 14:49

La séance de clôture du débat national sur les nanotechnologies (cf. Débat public sur les options générales en matière de développement et de régulation des nanotechnologies), mardi 23 février, à la Maison de la chimie à Paris, aura été la plus calme des réunions tenues depuis quatre mois. Echaudés par la contestation, les organisateurs s'étaient prudemment cantonnés à un public choisi de deux cents invités, composé principalement d'experts. De leur côté, les opposants au "nanomonde" avaient préféré tenir un débat alternatif, au même moment et à Paris, mais au siège de la Coordination des intermittents et précaires –, les lieux aussi sont symboliques.


Tirant le bilan de cette consultation, Jean Bergougnoux, président de la Commission particulière du débat public, a reconnu les difficultés d'une opération commanditée par "un maître d'ouvrage polycéphale" (pas moins de sept ministères), mais qui n'a pas la maîtrise des orientations stratégiques sur ce dossier, celles-ci relevant du niveau interministériel. D'ici à deux mois, la Commission remettra à ces ministères un rapport de synthèse qui sera rendu public et qui, assure M.Bergougnoux, traduira la diversité des positions.


Celle, tranchée, des Amis de la Terre, qui réclament un moratoire général sur les nanotechnologies, y compris sur leur usage médical, considéré comme le "cheval de Troie" – parce que le moins suspect de constituer une menace – de ces technologies invasives. Celle, plus modérée, du réseau associatif France Nature Environnement (FNE), favorable à un moratoire partiel sur certains nanomatériaux ou nanoparticules, aujourd'hui mis sur le marché sans que leur impact sanitaire et environnemental soit connu.


Ou celle, sans réserves, des plus fervents partisans des systèmes miniaturisés susceptibles de réduire la consommation d'énergie, de rendre les panneaux solaires plus performants, de stocker efficacement l'hydrogène des piles à combustible ou d'améliorer les procédés d'épuration des eaux.



Dans le premier cas, qui touche à la vie quotidienne (alimentation, produits de beauté, vêtements, automobiles, produits d'entretien…), l'accent est mis sur l'insuffisance des études sur la toxicologie et l'écotoxicologie des nanoparticules: 3% seulement des budgets publics de recherche sur les nanotechnologies leur sont aujourd'hui consacrés, l'essentiel des financements allant au développement des produits.

S'agissant des usages informatiques, les craintes tournent davantage autour des libertés individuelles, mises en danger par de futurs dispositifs de surveillance indétectables, capables de pister les citoyens à la trace.

Les préoccupations exprimées au fil des réunions, telles que les rapporte la Commission, n'offrent guère de surprises par rapport aux contributions fournies dès le départ par les groupements professionnels, les organisations syndicales ou les associations de défense de l'environnement et des consommateurs. Elles distinguent entre les applications usuelles, informatiques et médicales des nanotechnologies."Une simple mise en ordre"

 


Quant au domaine médical, il fait naître l'espoir de nouvelles approches thérapeutiques (imagerie plus précise, nanomédicaments plus sélectifs, traitement des troubles neurodégénératifs comme la maladie de Parkinson), mais aussi redouter des interventions sur le cerveau visant, par des implants, à créer des "plus qu'humain", ou des "hommes augmentés".


"Ce sont les décisions que le gouvernement prendra à la suite de ce rapport qui permettront de juger si le débat a été utile"
, souligne le président de la Commission. Celle-ci ne formulera pas de recommandations – ce n'est pas la vocation d'une telle consultation –, mais une simple "mise en bon ordre des arguments".

NDLR Regards citoyens : Voir également sur ce blog les articles de la rubrique :
Technologies et entreprises en action et en débat

 

Repost 0
27 janvier 2010 3 27 /01 /janvier /2010 16:32


L’INPI a confié à Bird&Bird une étude intitulée " Litiges de contrefaçon de brevets - Une étude comparative des systèmes juridictionnels. " (2006) dressant le bilan des forces et faiblesses du système français au regard des systèmes voisins comme l’Allemagne, les Pays-Bas, la Grande-Bretagne, l’Italie, la Belgique mais aussi des Etats-Unis.

Depuis plusieurs années, les critiques se multiplient à l’encontre du système français du contentieux des brevets, jugé peu attractif. Elles sont liées soit à la procédure civile en général, soit aux spécificités de cette spécialité : durée excessive des affaires de contrefaçon, dommages-intérêts et réparations très éloignés des réalités, déficit de compétence technique des juridictions, inadéquation des procédures pénales, etc.

Entreprises, magistrats, praticiens ont été interrogés dans le cadre de cette étude afin d’examiner quelles adaptations ou réformes seraient nécessaires et réalisables, en France, à court ou moyen terme pour redonner la confiance aux titulaires de droit, et assurer l’attractivité et la pérennité du contentieux des brevets, en France.

L'étude est disponible à la Documentation française au prix de 20 €.


Voir également sur ce blog les articles suivants :
 * Intelligence économique : comment protéger l'information stratégique ? ;
 * Du pari des transferts de technologie !.





Repost 0

Penser pour agir !

" Je préférerai toujours les choses aux mots,
et la pensée à la rime !
 "
 

(Voltaire)

 

" L'homme libre est celui qui n'a pas peur d'aller

jusqu'au bout de sa pensée "

(Léon Blum)

 

"La démocratie est d'abord un état d'esprit"

(Pierre Mendès France)  

 

 

Recherche

Catégories