Document sans nom

Newsletter n°63 – octobre 2013

 


Edito

Le chiffre du mois

Actualités :
14/11/2013 – 3ème édition du Colloque Identité Numérique
02/12/2013 – Cyberstratégie des entreprises, stratégie compréhensive et outils
04/12/2013 – PRISM la faiblesse digitale européenne ?
23/01/2014 – Dîner Networking "La R2I, Révolution Industrielle Informatique et ses impacts sur tous les métiers de l’informatique. Quelle situation en 2021+ ?"
Assister aux soutenances des thèses du Mastère Cloud Computing de l’ISEP
Ergonomie : les nouvelles technologies peuvent-elles se prévaloir de quelque atout en terme de confort d’utilisation ?
Le partage d’infrastructures de réseaux mobiles : pour déployer la 4G à moindre coût ? Oui, mais pas uniquement !
BIG DATA ou BIG BUZZ ?
Diner Sénat “Transfert Recherche vers Innovation” présidé par M. le Sénateur Michel BERSON

Agenda

     

Edito

L’actualité du numérique me contraint une fois de plus à aborder le thème de la surveillance généralisée et cachée de l’Internet, surveillance de masse, à peine justifiée par la lutte contre le terrorisme et la pédo-pornographie, pourtant bien nécessaire.

Mme Merkel, M. Hollande et bien d’autres jouent à la veuve outragée pendant que Edward Snowden, lui est clair sur ces objectifs :… « être capable de vivre dans une société libre et ouverte … »

Je veux saluer à nouveau le courage des alerteurs, et l’hypocrisie des pouvoir en place, qui refusent l’asile politique à Edward Snowde puis, quand l’opinion gronde, demandent des "explications ». Quelles explications ? Qu’y a t il à expliquer ? Avons nous oublier que l’état se doit d’être le protecteur de nos libertés, le rampart contre l’arbitraire ? La surveillance massive n’est pas acceptable, d’autant plus quand elle est cachée, et sans contrôle, sans contre pouvoir.

Art Coviello, le CEO de RSA, la très célèbre société spécialiste de sécurité est lui aussi très clair : « Dans le contexte actuel des révélations se pose le problème de la confiance. Et la seule réponse que vous pouvez donner est la transparence. »

Le monde d’aujourd’hui, s’il veut construire la confiance dans l ‘économie numérique, ne peut s’installer dans l’obscure, les règles de la surveillance doivent être publiques, au grand jour (pas les données bien sur) et ces règles doivent pourvoir être contrôlées par des entités connues, indépendantes.

Ces impératifs de transparence et de contrôle doivent pouvoir s’appliquer au plan national comme au plan international. Ce n’est pas qu’un problème d’espionage, c’est un problème de société, un problème de démocratie et d’adaptation de nos règles sociales à la société numérique en construction.

La CNIL a demandé des informations sur l’existence d’un Prism à la française, c’est son rôle. Sans contrôle, pas de confiance. Elle réclame un cadre juridique ne lui permettant pas de « contrôler, de manière générale, les fichiers de renseignement », et propose au gouvernement de « renforcer son pouvoir de contrôle en la matière, selon des modalités adaptées à la nécessité de protéger les secrets attachés à ces activités ». Au plan international, la société numérique devra trouver les moyens de construire les contrepouvoirs indispensables.

C’est une ambition pour demain qu’il nous faut relever. Venez en débattre avec nous, participer à nos nombreuses conférences débat, rejoignez-nous !

Philippe Recouppé, Président de Forum ATENA


Le chiffre du mois : 35

C’est le nombre, en zettaoctets qui composera la connaissance écrite sous diverses formes (textes, sons, vidéos,…) en 2020, d’après une projection de EMC CDC. Précisons qu’un zettaoctet, c’est mille milliards de gigaoctets. Ce nombre était de 1,8 zettaoctets en 2011, et on avance le nombre de 2,9 zettaoctets pour 2015. La bonne nouvelle est qu’une grande partie de cette connaissance pourra être traitée avec les technologies du Big Data (ou déferlante informationnelle) et restituée, grace à ces technologies émergeantes, pour fournir une information "utile". La moins bonne nouvelle est qu’on a tout à craindre pour la préservation de sa vie privée, son anonymat et son droit à l’oubli sur Internet. Alors dès à présent, commencez à vous méfier de ce que vous entrez, en particulier sur les réseaux sociaux, et de ce que vous faites avec les applications gratuites (google, yahoo,…) car quand c’est gratuit, le produit… c’est vous !

Gérard Peliks, Président de l’atelier sécurité de Forum Atena


14/11/2013 – 3ème édition du Colloque Identité Numérique

Quel est le lien entre identité numérique et croissance économique ? … Une question sans doute pas évidente, mais de fait trés intéressante à se poser…  

Essayons nous à quelques contributions, sous forme de charade…

Mon premier,…du coté des citoyens consommateurs, de plus en plus les services utilisant les identités numériques s’imposent comme plus modernes, personnalisés, confortables, rapides, souples et pratiques. Le gain de temps et de confort est un avantage économique certain.

Mon deuxième…, du coté des entreprises: la dématérialisation, la modernisation, l’innovation, la désintermédiation, rendus possibles et efficients par l’identité numérique, constituent autant de facteurs pour améliorer la compétitivité des entreprises !

Mon troisième est pour l’état et l’administration:  bien évidemment la simplification des démarches administratives, mais en fait bien au delà la condition indispensable pour exercer une forme de souveraineté numérique via un écosystéme choisi …et non pas subi ! 

Mon quatrième va pour une meilleure maîtrise de l’environnement, c’est le rôle essentiel de l’identification dans le M to M ou l’internet des objets, le domicile, les transports urbains, l’énergie, le parking, nous y sommes également, alors pourquoi ne pas s’y intéresser ?

Mon cinquième et mon tout, c’est "l’identité numérique, relais de la croissance économique".Et ce tout, il est préparé pour vous, il vient sous la forme d’une invitation à participer à ce colloque du 14 Novembre prochain organisé par Forum Atena avec le Medef:

  • Un programme exceptionnel : Les perspectives européennes, les projets français, les niveaux d’usages et de confiance, la modernisation des services grand public,…
  • Des intervenants spécialisés: Robin Wilton directeur identités de l’ISOC,Christian Shunck coordinateur du projet européen SSEDIC, de nombreux experts français d’horizons divers, des personnalités reconnues (voir le programme) 
  • La marque de Forum ATENA: Des intervenants divers, des questions claires, un débat éducatif et informatif, et l’idée d’aller plus loin ..

 Alors rejoignez vous ce Jeudi 14 Novembre à PARIS. Pour plus d’information sur le programme et pour s’inscrire : http://forumatena.org/node/456

En espérant  vous y rencontrer, pour avoir le plaisir d’échanger tous ensemble …

Guy de Felcourt, Président de l’Atelier Identité Numérique de Forum ATENA


02/12/2013 – Cyberstratégie des entreprises, stratégie compréhensive et outils

Suite à notre première journée « Les cybermenaces, quels risques pour les entreprises ? », nous proposons d’aborder la question de l’élaboration et la mise en œuvre d’une cyberstratégie pour les entreprises. Comment définir l’information stratégique ? Comment et où affecter les ressources ? Quels sont les outils de pilotage financier ? Quelles sont les difficultés à surmonter ? Quelles sont les solutions à l’étranger ?

Rendez-vous donc le lundi 2 décembre 14h00-19h00, au siège du Medef Ile-de-France, 10 rue du Débarcadère Paris 17eme (près de la porte Maillot), la chaire Castex de cyberstratégie, l’atelier sécurité de Forum ATENA, le Medef et l’ARCSI organisent le deuxième volet des évènements qui répondent à la question "Pourquoi les entreprises ont-elles besoin d’une cyberstratégie ?".

Pour voir le programme détaillé et s’inscrire : http://www.forumatena.org/?q=node/458


04/12/2013 – PRISM la faiblesse digitale européenne ?

Une réunion débat de l’atelier intelligence économique de Forum ATENA le 4 décembre 2013 de 18 à 20 heures.

Le grand public découvre ce que les initiés savent depuis longtemps : la France et les français sont espionnés par les américains. Nous sommes en guerre économique.

Le nouvel épisode des révélations d’Edward Snowden, ex consultant de la National Security Agency (NSA) américaine dénonce l’ampleur de la surveillance électronique pratiquée par les Etats-Unis sur la planète.

70,3 millions de communications téléphoniques de français ont été interceptées en à peine un mois entre le 10 décembre 2012 et le 8 janvier 2013. Outre la collecte de données par les géants d’Internet, des sociétés ont été ciblées, des institutions publiques, des responsables politiques, des organisations ont été écoutées.

Forum ATENA, par le canal de son atelier intelligence économique se doit de commenter, éclairer et provoquer le débat sur ce sujet pour l’approfondir et analyser les réponses possibles, afin de construire la confiance dans l’économie numérique. Je propose d’organiser une réunion sur ce thème de type After-Work 18-20 heures Le 4 décembre 2013 au cours de laquelle j’animerai une table ronde. Philippe RECOUPPE, Gérard PELIKS et Olivier ITEANU seront à mes côtés. La réunion aura lieu à l’ISEP, l’adresse précise et le numéro de la salle vous seront communiquées par mail.

Pour s’inscrire dès maintenant : http://www.forumatena.org/node/528

Christophe Dubois-Damien, Administrateur & Président de l’Atelier Intelligence Economique de Forum ATENA


23/01/2014 – Dîner Networking "La R2I, Révolution Industrielle Informatique et ses impacts sur tous les métiers de l’informatique. Quelle situation en 2021+ ?"

Forum ATENA organise un dîner networking le 23 janvier 2014 sur le thème "La R2I, Révolution Industrielle Informatique et ses impacts sur tous les métiers de l’informatique. Quelle situation en 2021+ ?". Cette soirée conviviale, réservée aux Membres de Forum ATENA, se tiendra autour de Louis NAUGES, CoFounder & Chief Cloud Evangelist Revevol ; sur le thème "La R2I, Révolution Industrielle Informatique et ses impacts sur tous les métiers de l’informatique. Quelle situation en 2021+ ?"

A l’image de l’industrie automobile au milieu du siècle dernier, l’informatique est en train de vivre une véritable révolution industrielle, la R2I, Révolution Industrielle Informatique. C’est une excellente nouvelle pour toutes les organisations, publiques ou privées, de toute taille, et pour tous leurs collaborateurs, utilisateurs des technologies informatiques. C’est un challenge majeur pour tous les acteurs de la profession informatique, usages, infrastructures, services et DSI.

Cette R2I est rendue possible par la convergence de plusieurs phénomènes :

  • La "consumerisation" de l’IT.
  • L’arrivée dans les entreprises des "digital natives" et de leurs exigences.
  • La possibilité pour les entreprises de migrer tous leurs budgets IT d’une démarche CAPEX (Investissements) à une démarche OPEX (Fonctionnement).
  • La mobilité, aussi bien dans les objets d’accès que dans les usages
  • Le "Cloud IT", avec l’arrivée de nouveaux fournisseurs industriels d’énergie informatique tels que Amazon et Google.
  • L’ubiquité des réseaux sans fil, à haut et très haut débit, WiFi, 3G, LTE…
  • Les véritables solutions SaaS, Software as a Service, multitenant, qui permettent de disposer de solutions logicielles industrielles, économiques, robustes et en permanence à jour.
  • La mort d’une culture de l’unicité des solutions (Master PC, ERP intégrès), remplacée par une culture de la variété et de l’agrégation de très nombreux composants d’infrastructures et d’usages.

Toutes ces révolutions sont déjà en marche, inéluctables, et le panorama informatique de la prochaine décennie, en 2021+, sera brutalement différent de celui que nous connaissons. Il n’y a pas une seule profession de l’informatique qui ne sera pas profondément impactée par cette R2I. S’y préparer, dès 2014, c’est la clef de la survie pour tous les fournisseurs IT, de postes de travail, de serveurs, de réseaux, de logiciels et de services. Pour survivre et devenir encore plus stratégique, une DSI devra se transformer en "Direction des Services d’Information", et proposer un catalogue étendu de services à ses clients.

Louis Naugès, CoFounder & Chief Cloud Evangelist Revevol

Les inscriptions seront prochainement ouvertes. Réservez dès à présent votre soirée du 23 janvier 2014.

Si vous souhaitez participer et que vous n’êtes pas encore membre, rendez-vous dès maintenant sur notre page d’adhésion.


Assister aux soutenances des thèses du Mastère Cloud Computing de l’ISEP

Les soutenances des thèses professionnelles du Mastère spécialisé qui forme les Experts du Cloud Computing et du SaaS (www.Cloud-Computing-Formation.fr) sont ouvertes au public sur invitation. Elles se tiendront dans les locaux de l’ISEP les 25 et 26 novembres. Elles sont le fruit d’une année de réflexion, voire d’une mission en entreprise d’au moins 4 mois. Les jurys sont composés des tuteurs de thèse professionnelles, des maîtres de missions, du responsable du mastère et d’experts du Cloud, de spécialistes experts du secteur et des partenaires du Mastère. Elles aborderont un certain nombre de thématiques d’actualité à forte valeur ajoutée, comme :

– Le TaaS : Quels sont les types de tests : fonctionnels, performances, … ? Quelles sont les entreprises qui utilisent le TaaS ? Quels gains ? Quels sont les nouveaux acteurs du marché ? Quelles sont les obligations légales et contractuelles ?
– Comment aborder la réversibilité/transférabilité de son système d’informations ou du moins la partie de celui-ci, lorsqu’il est déporté dans un Cloud Public, Privé, voir en utilisant des services de type Virtual Private Cloud (VPC) ?
– Quelle élasticité du cloud hybride, incluant la fédération de cloud publics et privés et les notions de scale down ?
– Pourquoi le CDN (Content Delivrery Network) est indispensable et indissociable du Cloud ?
– Quel autoscaling Mutli-Cloud en fonction de quelles QoS/QoE (Quality of Services / Quality of Expérience) ? Quels dimensionnements automatiques (Autoscaling) des ressources d’une infrastructure Multi-Cloud en fonction des paramètres de QoS (Qualité de Service) et de QoE (Qualité d’Expérience) ?
– Quels impacts de la révolution numérique sur le rôle du DSI ?
– La culture française est-elle un frein au développement du cloud ?
– Quel avenir le Green IT a-t-il dans le Cloud ? L’écoconception logicielle existe-t-elle réellement ?
– Quel levier de transformation pour l’entreprise a le Cloud Computing ?
– Le Cloud Computing privé est-il un facteur de compétitivité ? Comment montrer que le Cloud Computing permet de diminuer les coûts (énergie, people, matériel, ingénierie…) ainsi que le Time to market ?
– Le Cloud et mes données : quelle frontière entre protection et confidentialité ? 

Si vous souhaitez assister à la soutenance de ces thèses, ou à l’AfterWork de synthèse, le 26 novembre de 18 à 20 h, et en savoir plus sur ce mastère Cloud Computing, en tant qu’entreprise ou comme candidat, contactez Denis.Beautier (at) ISEP.fr  qui se fera un plaisir de revenir vers vous avec ces éléments, et vous précisera le lieu précis de cet événement.

Denis Beautier, responsable du Mastère Cloud Computing, partenaire de Forum ATENA


Ergonomie : les nouvelles technologies peuvent-elles se prévaloir de quelque atout en terme de confort d’utilisation ?

C’est en toute mauvaise foi que je n’apporterai ici que des éléments à charge.

Uniquement pour laisser libre cours au ressentiment qui monte dès qu’un message abscons est retourné par mon téléphone pour une requête que je pensais anodine. Le sentiment d’abandon est à son comble quand une machine baptisée abusivement « ordinateur personnel » vous indique qu’il est grand temps de contacter votre administrateur système. Car là, j’ai beau me retourner me pencher me glisser dans les recoins de mon bureau monter sur une chaise voire lire le mode d’emploi : point d’administrateur. Et c’est bien normal car mon ordinateur est « personnel ». Je n’ai besoin de personne sur mon clavier qui sonne, mais la solitude est alors bien pesante.

Donc égrenons les éléments à charge en agressant par exemple la voiture. Reconnaissons les fabuleux gains en robustesse depuis les trente glorieuses attestés par les compteurs soudain trop à l’étroit dans leurs cinq chiffres. Ne boudons pas non plus la fraicheur au sein de notre habitacle lorsque juillet règne de tout poids sur le baromètre. Goûtons la frugalité de ces nouveaux petits monstres.

Mais où sont passés les gros cadrans ronds d’antan, bien lisibles qui nous donnaient l’heure même en plein soleil et même en l’absence de contact ? Quels rapports entre consommation, température extérieur, autonomie et vitesse moyenne ? C’est pourtant au sein de cet é(pou)ventail de grandeurs diasparates (disons plutôt "non structurées", on est en 2013 quand même) qu’il nous faut élire celle qui aura l’insigne honneur d’être portée à notre vue. D’autant plus visible que le soleil n’a toujours pas fait son apparition. Haro sur le multiplexage. Je redoute ces « iBoutons » qui fleurissent fiers comme un palmier sur une île déserte et qui portent la globalité des commandes.

Et que dire des autoradios ? Ils sont maintenant capables de tout. Et ils obéissent au doigt et à l’œil. Et à la voix et au téléphone. Oui mais si les commandes au volant sont belles parce que diaboliquement symétriques, elles nous font irrémédiablement perdre une réplique parce qu’un « zapping » intempestif s’est produit en lieu et place d’une montée du son. Ne parlons pas de l’accès à des fonctions a priori élémentaires – quand je dis n’en parlons pas, c’est bien entendu pour en parler. Avez-vous déjà essayé de baisser le son à l’arrière pour préserver le bien-être de passagers assoupis ? Pas le choix : il faut pénétrer les niveaux hiérarchiques les plus profonds des menus de l’animal. Tout en continuant à conduire. Et il est bien entendu de nouveau préférable que le soleil ne pose pas son sourire éclatant sur l’affichage pendant ces opérations.

Venons-en aux fonctions que jamais on aurait pu imaginer il y a quelques années. Alarmes qui bloquent la voiture ou permettent de la pister en cas de vol, petits moteurs intelligents et omniprésents qui ouvrent fenêtres et coffres à votre place, algorithmes qui appliquent le principe de précaution au moindre doute. Je ne les dis pas toutes car beaucoup ne sont toujours pas imaginées. Eh bien nombreux sont ceux qui ont fait appel à une dépanneuse suite à un dysfonctionnement des antivols, n’ont pas ouvert leur valises du week-end pour cause de mauvaise humeur des moteurs d’ouverture de coffres et sortent de leur voiture pour prendre un ticket au péage car la vitre se tient à carreau.

Vite quittons la rubrique VieuxRonchonCEtaitMieuxAvant. D’ailleurs où ai-je laissé ma voiture ? Pas compliqué, j’ai une application sur mon smartphone. C’est quand même bien pratique, les nouvelles technologies …

Jacques Baudron, Secrétaire adjoint Forum ATENA


Le partage d’infrastructures de réseaux mobiles : pour déployer la 4G à moindre coût ? Oui, mais pas uniquement !

En plein cœur de l’été, dix ans presque jour pour jour après le démarrage du programme « Zones blanches 2G », une annonce a remis au goût du jour le partage d’infrastructures de réseaux mobiles en France.

Le principe de partage existe déjà en 2G et en 3G

En juillet 2003, les trois opérateurs mobiles d’alors signaient avec l’Etat, les collectivités territoriales et l’ARCEP,  une convention pour étendre la couverture 2G du territoire aux zones dites « Blanches » qui n’étaient couvertes par aucun d’entre eux. Ainsi, plus de 3000 communes ont été couvertes soit par le principe de l’itinérance (un seul opérateur déploie « l’antenne » et accueille en roaming les clients des autres opérateurs), soit par le principe de la mutualisation (chaque opérateur déploie son « antenne » mais sur un pylône commun).

Concernant la 3G, c’est cette fois en février 2010 que les trois opérateurs ont signé un accord cadre de partage d’infrastructures utilisant cette fois le principe du « RAN sharing » qui présente l’avantage, pour chaque opérateur, de conserver la maitrise de ses fréquences et l’affichage de son propre code réseau sur le mobile de ses clients. Ce nouvel accord a concerné l’ensemble des sites du programme « Zones blanches 2G » ainsi qu’un minimum de 300 sites supplémentaires. Techniquement, un opérateur « leader » est désigné pour chaque site radio. Il déploie des équipements radio 3G qui sont partagés et raccordés au cœur de réseau de chacun des opérateurs signataires de l’accord. La fonctionnalité de « RAN sharing » permet alors à un sous-système radio 3G d’émettre simultanément les fréquences de chaque opérateur et router le trafic vers le bon cœur de réseau.

Juillet 2013 : deux opérateurs mobiles annoncent être entrés en négociations exclusives pour partager une partie de leur réseau mobile. Cette fois, cela ne concerne plus l’ensemble des opérateurs. Le principe technique de partage n’est pas précisé mais l’ambition d’améliorer la couverture permet de comprendre que chacun cherchera par ailleurs à « boucher » ses trous de couverture grâce aux sites de l’autre.

Comment améliorer sa couverture à moindre coût ?

En zones urbaines, la concentration de la population est suffisamment importante pour que chaque site radio puisse être rentabilisé rapidement. Les opérateurs déploient donc ces sites en propre sans volonté de les partager.

En zones rurales, la concentration de la population est plus faible et le retour sur investissement d’un site radio est plus long. Les opérateurs cherchent alors à partager le coût de déploiement. Pour un opérateur, une zone rurale est un département où plus de la moitié des sites sont situés en dehors d’agglomérations de plus de 50 000 habitants.

La notion de rentabilité d’un site radio est à ce point importante que dans certaines zones, seul l’opérateur ayant la part de marché la plus importante a un intérêt (nombre de clients potentiels) et les moyens financiers (capacité d’investissement) pour déployer un site radio. Il se trouve alors sans concurrence ou, au mieux, avec la concurrence d’un seul des autres opérateurs présents sur le marché.

Prenons donc un cas d’école (différent de la réalité pour préserver le secret des affaires) afin de comprendre le mécanisme financier : chaque opérateur possède 16000 sites radio et déploie la 4G en propre sur la moitié (les 8000 sites qui véhiculent le plus de trafic et génèrent donc le plus de chiffre d’affaire).

Sur les 8000 sites restant, chaque opérateur déploiera la 4G sur une moitié qu’il partagera avec l’autre opérateur et en démontera l’autre moitié. A couverture équivalente, cela représente 4000 sites en moins par opérateur et, globalement, 8000 sites démontés. Chaque opérateur n’a déployé la 4G que sur 12000 sites mais accède pour autant à une couverture 4G de 16000 sites.

Mais faut-il démonter 8000 sites ? Non bien sûr car, dans la réalité, il n’y a pas autant de redondance entre les couvertures des opérateurs surtout en dehors des zones denses. Si on prend pour exemple que sur les 4000 sites restant de chaque opérateur, seuls 2000 sites sont totalement redondants (les antennes des deux opérateurs sont installées sur le même toit d’immeuble, sur deux immeubles proches l’un de l’autre ou au sommet du même pylône) alors les 2000 autres sites de chaque opérateur peuvent être apportés dans l’accord de partage. Ainsi, chaque opérateur déploiera cette fois la 4G sur 14000 sites mais accèdera à une couverture 4G de 20000 sites soit une couverture très proche de l’opérateur leader.

Les gains et les surcoûts d’un partage de réseaux mobiles

Avantages et gains financiers :

  • Déploiement plus rapide de la 4G
  • Amélioration  de la couverture tant en terme de population qu’en terme de surface
  • Augmentation du chiffre d’affaire lié à l’augmentation de la couverture
  • Gains liés à un nombre moins important de sites par opérateur :
    • Gain en terme d’image (sites démontés = antennes qui disparaissent)
    • Gains CAPEX de maintien en condition opérationnelle des sites
    • Gain OPEX sur les loyers des sites démontés sauf les premières années en raison du dédit à financer auprès des bailleurs
    • Gain OPEX des liens de transport (LL, redevances FH, …)
    • Gain sur la taxe IFER (article 1519 H du CGI)
    • Gains OPEX de consommation d’énergie (améliore le bilan carbone des opérateurs)
  • Gestion  en commun des problèmes d’interférence avec la TNT (pour les déploiements en 800 MHz)

Inconvénients et surcoûts financiers :

  • Gestion du risque de mésentente voire de « divorce »
  • Perte d’indépendance en terme d’évolutivité technologique liée aux choix techniques de l’autre opérateur (a contrario, nécessité de déployer les fonctionnalités radio choisies par l’autre opérateur même si on ne les souhaite pas pour son réseau)
  • Perte d’indépendance sur le rythme et les priorités de couverture
  • Complexité accrue de la mobilité avec la 2G et la 3G de chaque opérateur
  • Coût du projet et frais de fonctionnement de la « Joint Venture »
  • Surcoût des fonctionnalités de partage au sein des équipements concernés
  • Surcoûts liés à chaque site partagé:
    • Accueil des fréquences de l’autre opérateur
    • Surloyer si les antennes de l’autre opérateur sont ajoutées (partage de site) et une empreinte au sol plus importante des équipements radio
    • Renforcement des pylônes (partage de site)
    • Surconsommation d’énergie liée au trafic de l’autre opérateur
    • Coût de réglage radio suite au déménagement sur le nouveau site
  • Coûts liés à chaque site démonté:
    • Dédit sur les loyers
    • Démontage et remise en état du site
    • Impact comptable de la mise au rebut des aménagements des sites si ceux-ci ne sont pas amortis

Deux équations économiques peuvent alors être posées mettant en balance l’ensemble des gains et des surcoûts : celle permettant de calculer le TCO par opérateur d’un réseau 4G à couverture équivalente et celle dans laquelle on fait apparaitre le surcoût afin de rattraper la couverture de l’opérateur leader.

En conclusion, quels enjeux autour d’un tel accord ?

Tout d’abord, cela permet de rattraper plus vite et à moindre coût la couverture de l’opérateur leader. En effet, même si une réutilisation astucieuse du patrimoine 1800 MHz permet de déployer rapidement une couverture 4G importante, il n’en reste pas moins que l’opérateur leader possède plus de sites radio que ses concurrents et dispose des ressources financières pour rattraper puis dépasser relativement rapidement la couverture de ses concurrents. En partageant leurs sites non redondants, les opérateurs émettent sur un plus grand nombre de sites radio s’approchant ainsi de la couverture de l’opérateur leader.

Ensuite, cela permet de réaliser un gain économique puisque chaque opérateur va démonter les sites redondants avec ceux de l’autre opérateur. Avoir moins de sites en propre, c’est réaliser des gains OPEX sur les baux, l’énergie, la maintenance, etc.

Enfin, si le régulateur le permet un jour, les opérateurs pourront mutualiser les fréquences afin de proposer des services 4G sur une bande de fréquences plus large donc avec un débit plus élevé. Cette opération est d’autant plus facilitée lorsque les opérateurs sont côte à côte dans le spectre des fréquences. Cela sera intéressant plus particulièrement en rural où les fréquences 800 MHz sont largement utilisées bien que d’une largeur de bande réduite (10 MHz par opérateur) par rapport aux fréquences 2600 MHz qui ont une propagation plus restreinte et sont donc utilisées plutôt en urbain. Une manière aussi de réduire la fracture numérique entre les grandes villes et la campagne…

Jean-Marc Do Livramento, consultant télécom fixe et mobile


BIG DATA ou BIG BUZZ ?

Le big Data, ou déferlante informationnelle, jugé souvent comme une rupture dans le paradigme de l’économie numérique, pourrait bien révolutionner les métiers et conditionner notre vie de tous les jours.
 
Selon IBM et le Gartner, plus de 4 millions d’opportunités de jobs pourraient être créées dans le monde d’ici 2015, autour des technologies du Big Data dont le marché est estimé à 8% du PIB de l’Europe en 2020.
 
Qu’est –ce donc que ce fameux Big Data ?
 
Emmené par la vague des smartphones et des tablettes et leur possibilités de créer des masses gigantesques d’informations de tous types : messages, photos, sons, vidéos,  et la plupart non structurées ; alimenté par les réseaux sociaux et les objets communicants qui envahissent le marché et produisent d’énormes quantités de données très précieuses ; enhardi par l’Open Data maintenant que les administration permettent l’accès facilité à certaines données publiques, le Big Data permet de traiter ces informations, de les corréler et de tirer, à partir des relations entre ces informations, un résultat utile à un métier ou à un marché, et ce dans un temps très court.
 
Avec des applications comme les moteurs de recherche (Google, Yahoo,…), nous utilisons déjà des applications de big data, et ce n’est qu’un début. Le calcul massivement parallèle, le traitement des informations directement en mémoire, la possibilité de répartir ces traitements sur des centaines de milliers de serveurs, laissent entrevoir des applications dont on n’avait pas idée il y a peu années. Déjà des applications dans le domaine de la santé, dans celui des transports, et … dans celui de la cybersécurité s’annoncent.
 
Dans le domaine de la cybersécurité, la corrélation des informations décelées à partir de multiples fichiers logs et d’autres informations de géolocalisation permettent de déceler des signaux faibles qui pourraient non seulement avertir d’une attaque en cours mais aussi d’une attaque qui se prépare, en particulier une attaque persistante avancée (APT). Cette chose était impensable il y a seulement quelques années, elle deviendra vite indispensable. 
 
Les technologies du Big Data acquièrent leur maturité. Conçues initialement par de grands éditeurs tels que les créateurs de moteurs de recherche (Google, Yahoo,…) Issues aujourd’hui principalement du logiciel libre, comme les travaux de la fondation Apache, les outils du Big Data abordent leurs versions 2.0. Citons le Framework Hadoop conçu pour le traitement de gros volumes de données, le gestionnaire de ressources YARN qui prend le relai du MapReduce en lui restant compatible et le système de fichier HDFS (Hadoop Distributed File System).
 
De nouveaux champs du possible s’annoncent, orchestrés par des statisticiens, des mathématiciens, des informaticiens, autant de métiers qui n’existent encore que trop peu aujourd’hui comme les Data Scientists et les Chief Data Officers.
 
Alors Big Buzz ou Big Opportunity ? Le Big Data ne peut laisser indifférent et devient le sujet de conférences et de salons où Forum ATENA vous conseille d’aller pour vous faire vous-mêmes une idée de cette révolution technologique.

Gérard Peliks, Président de l’atelier sécurité de Forum Atena


Diner Sénat “Transfert Recherche vers Innovation” présidé par M. le Sénateur Michel BERSON

Premier événement du FPI, Forum des Politiques Publiques  d’Innovation, extension de l’Atelier Innovation de Forum Atena,Co-organisé avec l’ANRT, un diner sur la comparaison du transfert de technologies aux  USA et en France s’est tenu au Sénat, le 16 octobre, sous la présidence du Sénateur Michel BERSON, rapporteur des budgets recherche et enseignement supérieur et de 2 députés de l’OPECST, et en présence des 2 co-signataires du Rapport Beylat-Tambourin.Le conférencier principal était Antoine MYNARD, CNRS, précédemment Conseiller Scientifique à l’Ambassade de France aux USA (5 ans) et co-auteur d’un rapport sur les transferts de technologie aux USA.

Les invités, principalement choisis par l’ANRT, comportaient 6 représentants de la Recherche en France (CNRS, INRIA, INRA, CNR, Conférence Prdt Univ., Génopole), 7 représentants de la R&D de grands groupes, 6 représentants des cabinets des ministères liés à la Recherche et plusieurs personnes concernées par le transfert des résultats de la Recherche vers les entreprises innovatrices.

M.Antoine Mynard a présenté un résumé de son rapport accessible sur le site du FPI,
http://www.bulletins-electroniques.com/rapports/smm13_004.htm, et a notamment insisté sur le fait qu’hormis quelques très grandes universités, le transfert de technologies obtenues par les labos des Universités dans le cadre des contrats reçus des 7 grands laboratoires fédéraux, et dont elles sont propriétaires selon le Bayh-Dole Act de 1980-81,ne représente qu’un petit flux comparé aux budgets de recherche, et ne payent pas souvent les frais associés aux cellules de transferts.

Le gain principal est qualitatif en rendant l’argent et l’innovation très bien vus par les chercheurs, notamment du coté des jeunes qui, maintenant, au contraire des années 70,  cherchent assez souvent pour trouver de quoi gagner de l’argent et de la «gloire» non académique.

Bien sur, l’innovation dans les entreprises ne se mesure pas à la seule quantité de royalties versées. Beaucoup d’innovations importantes se sont déployées sans aucun transfert direct.

En conclusion, le transfert aux USA ne marche pas si bien et certains aspects des formules européennes, notamment la mutualisation et le petit nombre de guichets où les entreprises ont à s’adresser pour un domaine donné, peuvent intéresser les responsables américains. Il faut aussi regarder les autres écosystèmes que la Silicon Valley et la cote Est, entre Boston et New-York, comme la Corée ou Israel.

La suite du diner a donc porté sur ce qui limite le transfert de technologies ou de découvertes des laboratoires vers les entreprises capables de les intégrer dans leurs innovations.

Sans penser être exhaustifs les participants sont convenus des éléments suivants :

  1. le frein principal est la culture des universitaires français, qui n’ont pas encore fait le chemin de leurs homologues américains, qui, 30 ans après le Bayh-Dole Act, sont maintenant passés à l’admiration pour ceux d’entre eux qui réussissent dans les entreprises innovantes.
  2. Il est notamment assez rare pour les meilleurs éléments d’aller suivre leurs découvertes dans les entreprises et quasiment impossible de revenir en Recherche académique, au contraire des États-Unis..
  3. C’est la domination d’un modèle unique linéaire de carrière académique, bien que certains organismes présents le jugent moins dominant ces dernières années.
  4. Les grands groupes français n’ont pas d’a priori sur la Recherche française, car de toute façon ils cherchent les meilleurs, dans le monde entier.
  5. Le potentiel de la Recherche française serait peut être plus vers les ETI régionales qui sont demandeuses mais pas encore très à l’aise avec les universitaires.
  6. Plusieurs participants ont approuvé cette remarque et ont donné des exemples de leurs actions (médical, aéronautique, agriculture… ), où selon certains devraient peut être se renforcer les efforts de l’état et des régions,
  7. Les fonds orientés vers les startups, avec lesquelles on fait de belles histoires, mais qui ne créent pas beaucoup d’emplois et survivent souvent uniquement grâce à toutes les subventions, ont alors été contestés, mais, il n’y avait pas de représentants des startups…
  8. L’innovation n’est pas que technique, ce qui compte c’est le produit et le service pour le client, avec ou sans découverte technique ou technologie de pointe.
  9.  La professionnalisation des ingénieurs brevets est importante et a beaucoup progressé, mais il manque, pour l’instant, un effort similaire pour les futurs spécialistes de la valorisation de la Recherche , et notamment la bonne circulation des hommes entre la Recherche et les Entreprises.
  10. Selon les présents, il ne manque pas grand chose coté lois et règlements, mais il y a encore un énorme gap culturel entre les 2 mondes et une absence de modèles pour des carrières non purement académiques.
  11. Une illustration de cette absence de culture entrepreneuriale ambitieuse se révèle aux Doctoriales, formation des Docteurs qui ne seront pas pris dans le circuit académique : ils ne pensent qu’à tenir 2-3 ans avec les allocations chômage et à créer 2-3 emplois servant le seul marché national.
  12. Un autre facteur de moindre valorisation des compétences et découvertes produites par la Recherche réside dans la trop faible proportion de personnes du marketing dans les effectifs de transfert, accueil et valorisation. En Israël, la norme est de 70% d’effectifs dans le marketing, contre 70%  dans la technique en France. Cela viendrait  du fait qu’en Israël, il n’y a pas la tentation du seul marché national. L’international est une obligation, d’où les effectifs pour s’adapter aux différences locales.
  13. Les représentants de la R&D d’entreprise alertent sur le fait que si ce mix tech-marketing peut suffire pour des technologies nouvelles, dans les marchés où interviennent les grands groupes internationaux, il faut, pour innover avec succès,  des compétences multiples, notamment en sociologie et autres sciences molles, qui ne peuvent pas être trouvées dans un seul écosystème, mais dans le monde entier, et différemment selon les régions.
  14. Confer les exemples de l’iPhone ou du conteneur, qui lors de leurs décollages ne comportaient aucune invention exclusive, seulement un nouveau mix de composantes connues. Aucun transfert de technologies pour ces innovations lors de leur émergence.
  15. L’étude de Grenoble management a été citée avec ses ETI qui ne s’engagent pas dans les systèmes d’aides et subventions afin de garder souplesse, réactivité et vitesse d’action.
  16. Innover n’est il pas d’abord le résultat d’une nécessité et d’une certaine urgence donc peu compatibles avec des plans longs à plusieurs et sous contraintes administratives.
  17. En France, il manque un outil de mesure du succès des transferts de technologie et de l’innovation, alors qu’aux USA elle se mesure par le niveau de l’entrepreneuriat, qui marche fort actuellement
  18. En conclusion, le Sénateur a remercié les participants pour tout ce qu’ils lui avaient appris et a exprimé le sentiment que si la France avançait, ses concurrents aussi, et que les efforts en cours avaient besoin, au delà des rapports, de plans concrets de mise  en  œuvre (espérés dans les semaines à venir). Tout en améliorant le bénéfice pour la collectivité des 37% de 46 milliards de dépense intérieure de R&D financés par l’État. Tous les présents semblaient convenir en Off, que «c’était pas gagné», car la Recherche et les Chercheurs sont encore arcboutés dans un monde très loin de l’innovation créant des emplois.

Laurent Guyot-Sionnest, pour l’Atelier Innovation de Forum ATENA


 

Agenda

Jeudi 14 novembre
Organisé par Forum Atena, en partenariat avec le MEDEF
L’identité numérique : relais de la croissance économique

Lundi 2 décembre
Organisé par Forum Atena, en partenariat avec le MEDEF
Cyberstratégie des entreprises : stratégie compréhensive et outils

Mercredi 4 décembre
Organisé par Forum Atena
PRISM la faiblesse digitale européenne ?

Mardi 5 novembre
Restaurant Misia (Paris 8ème)
Dîner de l’innovation "Le marché de l’économie du partage"


Jeudi 21 novembre
Alençon
6ème Forum international de la dématérialisation


Lundi 25 novembre
Medef Ile-de-France
Financements innovants – Développez-vous maintenant !


 

Retrouvez nos publications sur la boutique Lulu :   

  

 brancheolivier Pour soutenir Forum ATENA brancheolivier