PODCAST

ZD Tech : tout comprendre en moins de 3 minutes

ZD Tech : tout comprendre en moins de 3 minutes

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.
Métaverse, le serpent de mer numérique revient, voici pourquoi
Bonjour à tous et bienvenue sur le ZD Tech, le podcast de la rédaction de ZDNet. Je suis Pierre Benhamou et aujourd’hui je vais vous expliquer pourquoi le métaverse suscite de nouvelles convoitises du côté des géants du numérique. Imaginez un monde virtuel où tout serait possible. Participer à une réunion, faire son shopping ou même assister au concert de sa chanteuse favorite, le tout dans des conditions d’un réalisme jamais atteint jusqu’alors. Et bien, tout cela est rendu possible grâce au métaverse, un univers virtuel que Mark Zuckerberg, le patron de Facebook, présente tout simplement comme le successeur de l’internet mobile. La formule résume bien les attentes du dirigeant, qui entend capitaliser sur ce métaverse pour faire pivoter son entreprise. D’emblée, la question se pose : pourquoi un tel virage pour un groupe qui compte plus de trois milliards et demi d’utilisateurs ? Et bien, pour deux raisons très précises sur lesquelles nous allons bientôt revenir. Auparavant, notons que Microsoft n’est pas en reste. La firme de Redmond vient en effet d’annoncer sa propre plateforme collaborative de réalité mixte, nommée Mesh. Et désormais, tout le monde s’y met. HTC, Sony, ou même Apple s’emparent du sujet via des appareils déjà disponibles ou bientôt annoncés… Mais avant d’aller plus loin, tentons de voir ce qui se cache derrière ce concept un peu fourre-tout de métaverse. Et bien, le métaverse désigne un monde en ligne immersif accessible via des casques de réalité virtuelle ou des lunettes de réalité augmentée. Ce Second Life 2.0 promet d’inventer une nouvelle vie numérique dans un univers où tout, je dis bien tout, est à construire. Le concept ne vient d’ailleurs pas de nulle part. Son origine remonte à des ouvrages de science-fiction d’auteurs reconnus, à l’instar de l’américain Neal Stephenson. On l’a compris, si le concept remonte déjà un peu, il est aujourd’hui sur toutes les bouches. Y compris chez Facebook, renommé Meta pour l’occasion. Cela fait cependant un long moment que le groupe planche sur le sujet. Dès 2017, le réseau social lançait ainsi une  application nommée Spaces, dont l’objectif était de mettre en scène un avatar virtuel. Si l’expérience s’est soldée par un échec commercial, cela n’empêche pas Facebook de persister dans les mondes persistants. Avec sa plateforme de réalité virtuelle Horizons, la société propose un nouveau portail d’entrée dans son métaverse. Celui-ci proposera de créer son propre espace domestique virtuel et permettra aux professionnels d’organiser ou de participer à des réunions virtuelles, à l’instar de ce que propose Microsoft avec son propre métaverse. Enfin, une fonction "monde" transportera qui le souhaite dans des univers créés par d’autres utilisateurs. Alors, l’objectif est double pour Facebook. Le réseau social veut en effet créer de toutes pièces un nouvel écosystème dont il serait à la fois le maître des horloges et des finances. Au-delà du volet sonnant et trébuchant, il s’agit également pour le réseau social de s’attirer les faveurs d’un public jeune aujourd’hui capté par son concurrent chinois TikTok. S’il s’agit d’un pari risqué pour Mark Zuckerberg et ses troupes, nul doute que les prochains mois nous permettront d’avoir de nouvelles indications sur ses chances de réussite. Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur ZDNet.fr et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast favorites.
3d ago
3 mins
Excel, des API pour aller au-delà du tableur
Bonjour à tous et bienvenue dans ce nouveau numéro un peu spécial du ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Guillaume Serries et aujourd'hui je vais vous expliquer comment le tableur Excel, commercialisé depuis 1985, passe du statut de feuille de calcul à celui de boîte à outils pour analyser des données de toute nature. Bref, les chiffres et les lettres, c'est fini. Ils sont nombreux, les logiciels et progiciels qui ont tenté en plus de 35 ans de mettre au rebut les feuilles de calcul d'Excel. Mais, à l'heure du cloud et des bases de données Graph, l'antédiluvienne brique bureautique de Microsoft fait plus que s'adapter à la concurrence. Elle montre le chemin. Lors de la dernière conférence Ignite, Microsoft a clairement expliqué que les comptables et autres chefs de projets n'étaient plus la cible favorite d'Excel. Les experts de la cellule de demain sont... les concepteurs d'applications professionnelles, qu'ils soient développeurs informatiques ou non. C'est en effet pour eux que Microsoft a mis à jour Excel. Désormais, ce ne sont plus seulement du texte ou des chiffres qui seront manipulés avec les formules du tableur. Les types de données personnalisées et les métadonnées vont être affichés dans les lignes et les colonnes des feuilles de calcul. Visuels, coordonnées géographiques, éléments chimiques, structures anatomiques, ou encore minéraux, pourront être embasés dans Excel. De quoi utiliser désormais l'antique logiciel pour créer de nouvelles solutions pour les professionnels, et l'extirper pour de bon des cabinets comptables. Car ces nouvelles possibilités permettent à présent d'envisager Excel comme une base solide pour développer des applications low code et no code, la grande mode du moment. Mais pour réaliser ce tour de force, Microsoft a dû aller un peu plus loin que les très classiques macros et les liens avec Access. Microsoft connecte depuis quelque temps des interfaces JavaScript sous la forme d'API à Excel. Cela révèle à quel point Excel est désormais tourné vers les applications de nouvelle génération, qui fonctionnent avec des données qui peuvent être stockées ailleurs que dans les serveurs de votre entreprise, et dans des formats très différents de ceux que nous utilisons habituellement. De feuille de calcul, Excel est en passe de devenir une boîte à outils pour analyser des données de toute nature. Et nul doute que la concurrence, à commencer par Google, saura rapidement se mettre à niveau. Et voilà, normalement on a fait le tour du sujet pour aujourd'hui. Pour en savoir plus, rendez-vous sur zdnet.fr . Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
4d ago
2 mins
Attaques sur la supply chain : le coup de poignard dans le dos
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui je vais vous expliquer ce que sont les attaques sur la « supply chain » et pourquoi celles-ci sont tant redoutées. Si vous êtes une entreprise, vous avez tout intérêt à prendre la cybersécurité au sérieux. Mais vous aurez beau configurer au mieux tous vos firewalls, appliquer tous les correctifs de sécurité et réinitialiser les mots de passe de vos employés toutes les trois semaines, il y aura toujours une variable sur laquelle vous n’avez aucun contrôle. Cette variable, c'est la sécurité de vos fournisseurs logiciels. Et ça, les attaquants l’ont bien compris. C’est sur ce ressort que reposent les attaques sur la chaîne d’approvisionnement, ou supply chain attacks en anglais. Je vous parle ici de la chaîne d’approvisionnement logicielle.  L'enjeu, c’est de savoir à quel point vous pouvez faire confiance, non pas en votre propre sécurité, mais dans la sécurité des éditeurs de logiciels que votre entreprise utilise. Les exemples de ce genre d’attaques sont légion. Parmi les plus connues, on peut citer l’attaque Solarwinds, ou celle ayant visé Kaseya. Les spécificités des attaques sont différentes à chaque fois. Mais la logique est toujours la même. Plutôt que de s’attaquer directement à sa cible, le cybercriminel va chercher à compromettre un partenaire ou un fournisseur de celle-ci.  L’objectif : exploiter le lien de confiance entre les deux entités pour atteindre sa victime finale. Un bon exemple de ce type d’attaque, c’est l’attaque ayant visé CCleaner. CCleaner est un utilitaire de désinfection des PC très populaire. En 2017, des attaquants sont parvenus à pirater le système de mise à jour de CCleaner. Leur objectif était de diffuser une mise à jour du logiciel contenant du code malveillant. Et cette mise à jour corrompue a été téléchargée par un peu plus d’un million d’utilisateurs. Normal, vu qu’elle apparaissait comme une mise à jour tout à fait authentique.  Mais le malware ne s’activait au final que sur certains appareils sélectionnés avec soin par les pirates. Donc les ordinateurs réellement visés par cette attaque n'appartenaient qu'à des entreprises comme Sony, Vmware, Samsung ou encore Intel. Les véritables cibles de l’attaque sur CCleaner, c’était eux. Et CCleaner n’était qu’un moyen de les atteindre. C’est tout le vice des attaques sur la chaîne d’approvisionnement. Pour vous protéger des attaques informatiques, l’une des recommandations principales c’est d’appliquer les mises à jour de sécurité des éditeurs de logiciel. Mais lorsque le danger provient précisément de ces mises à jour, comment faire ? Et bien pour l’instant, il n’y a pas vraiment de solution.  On peut envisager de renforcer la sécurité des fournisseurs, mais il y aura toujours un chaînon moins sécurisé au sein de la chaîne d’approvisionnement logicielle. Et c’est ce chaînon que les cybercriminels tentent de viser pour parvenir à leurs fins. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et ret rouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées.
5d ago
3 mins
Votre portable 13 pouces ? Poubelle ! Place au PC de 2 kilos,  avec un écran 16 pouces
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi vous allez mettre à la poubelle votre ultraportable 13 pouces et vous laisser tenter par un PC portable de 2 kilos, doté d'un écran de 16 pouces. Longtemps, la tendance en matière d'ordinateur portable fut de proposer toujours plus puissant, toujours plus petit, et donc toujours plus léger. Alors, toujours plus puissant, c'est toujours le cas. Plus léger, c'est encore peut-être le cas. Mais plus petit, c'est fini. Et c'est à cause, ou grâce, à la mise en place massive du télétravail. On va y revenir. Mais voici tout d'abord quelques preuves de ce que j'avance. Le nouveau portable MacBook Pro M1 Max d'Apple est proposé avec une option 16 pouces. Bien sûr, il coute très cher, plus de 2 700 €. Et il pèse 2 kilos. Mais ce nouvel ordinateur portable illustre une tendance forte. En effet, les autres constructeurs se mettent rapidement au diapason du 16 pouces. HP vient de lancer une déclinaison de son modèle phare pour les professionnels, le portable 2-en-1 Spectre x360, en 16 pouces. Idem pour Dell et Lenovo. Ces trois marques ne proposaient jusqu'alors du 16 pouces que pour les passionnés de jeux vidéos. Désormais, ce sont les professionnels qui sont visés avec ces ordinateurs portables grand format. Mais pourquoi donc les fabricants d'ordinateur s'entichent de portables plus volumineux ? Et bien parce que de plus en plus de clients utilisent leurs machines pour travailler et se divertir à la maison. Et s'ils se déplacent toujours avec un ordinateur portable, c'est de moins en moins souvent. Oui, cette tendance est une des conséquences de la mise en place massive du télétravail dans le monde entier. En clair, vous voulez plus de confort pour lire des informations à l'écran, quitte à déplacer une machine plus lourde, de temps en temps. Alors, allez-vous vous déplacer quelques vertèbres en transportant un âne mort dans les transports en commun, direction le bureau ? Pas forcément explique Jason Chen, le PDG d'Acer. Oui, la taille des écrans augmente, dit-il. Mais les châssis des machine deviennent aussi de plus en plus fins, et de plus en plus légers. Les fabricants d'ordinateurs portables utilisent souvent d'ailleurs des chassis d'ordinateurs 15 pouces pour y positionner des écrans 16 pouces. Et vous prendrez tellement gout aux grands écrans que vous adopterez peut-être d'ici deux ans un ordinateur portable de... 17 pouces. Le PDG d'Acer assure que la demande de Chromebook 17 pouces est en forte hausse. Un facteur de forme jusqu'ici réservé aux stations de travail. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
6d ago
2 mins
Comment l'IA Megatron-Turing peut déduire et fabriquer des textes vraisemblables
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Guillaume Serries et aujourd’hui je vous explique comment et pourquoi l'intelligence artificielle Megatron-Turing peut déduire, et donc fabriquer des textes vraisemblables. Oui, nous ne sommes plus très très loin du T800 de Terminator. Pour commencer, donnons son nom complet. "Megatron-Turing NLG 530B". Ce patronyme, composé en partie de celui du père des ordinateurs, c'est celui d'une toute nouvelle intelligence artificielle présentée la semaine dernière par Nvidia et Microsoft. Elle est capable de fabriquer des textes d'apparence réaliste et de réaliser divers tests linguistiques tels que la capacité à terminer des phrases. Mais ! Oui, car il y a un gros mais.  Car Microsoft nous avait déjà fait le coup il y a un an, avec l'intelligence artificielle nommée elle 1T, censée elle aussi produire des textes vraisemblables. Dans les faits, plusieurs journalistes avaient pu tester la bête, et ils étaient parvenus à la conclusion que cette IA était plus que boiteuse. Surtout, 1T utilisait 1 000 milliards de poids neuronaux, soit presque deux fois plus que sa comparse Megatron-Turing. Alors, par quel miracle cette dernière serait-elle parvenue à devenir plus efficace, avec deux fois moins de puissance ? Et bien, nous explique Nvidia, parce que Megatron Turing est entraînée à la convergence. Et pas 1T. Alors, qu'est-ce que la convergence dans le monde de l'Intelligence artificielle ? Et bien, cela signifie que l'IA effectue des inférences, disent les spécialistes. Ok. Mais qu'est-ce que sont les inférences alors ? demandent un poil agacé les néophytes. Les inférences sont les étapes de l'intelligence artificielle à partir desquelles il devient possible de faire... des déductions, et donc des prédictions. Oui, l'inférence, un terme qui remonte à la période de la Renaissance, est chez les robots la capacité de déduire. Prenons un exemple simple. Vous pouvez reconnaître le mot "bonjour" sans avoir à réapprendre à lire ou à disséquer soigneusement chaque lettre quand vous le lisez. C'est cela la déduction. L’inférence en matière d'IA fait référence à la même compétence... pour les robots. Une intelligence artificielle n'aura donc pas besoin d’apprendre à identifier des visages humains, des chats, ou encore des voitures chaque fois qu’un humain, un chat, ou une voiture, ou tout autre objet pour lequel l’IA est entraînée, passe devant ses caméras et ses capteurs. Au lieu de cela, l’IA utilise l’inférence. Et donc, tout comme vous pouvez lire instantanément un mot ou identifier une voiture, l’inférence permet aux applications d’IA de fournir des résultats instantanés. Bref, l’IA utilise les compétences qu’elle a déjà acquises pour tirer des conclusions, et donc déduire, à partir des données qu’elle reçoit. C'est cette capacité que possède désormais Megatron-Turing, en dépit d'une puissance moindre par rapport à 1T. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Nov 18 2021
3 mins
Banque, médicaments, batteries : ce qui change avec l'informatique quantique
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique comment l'informatique quantique commence à changer les métiers de la banque, de la pharmacie, ou encore de la conception des batteries électriques. Vous en avez certainement déjà entendu parler. Les plus grandes entreprises du monde et les gouvernements injectent des fonds considérables dans la recherche en informatique quantique. Pourquoi ? Pas question de vous expliquer ici en 3 minutes le concept d'informatique quantique. Nous verrons cela une autre fois. Sachez simplement que les ordinateurs quantiques peuvent réaliser en quelques minutes certains calculs qui prendraient des années, voire des siècles, aux systèmes informatiques classiques. Et voici trois exemples qui montrent que si l'on en est encore à l'aube de cette nouvelle ère, cette technologie change déjà la donne. Dans la découverte de nouveaux médicaments par exemple. Trouver de nouveaux médicaments repose en partie sur un domaine scientifique appelé « simulation moléculaire ». Cela consiste à modéliser la manière dont les particules interagissent à l'intérieur d'une molécule pour créer une configuration capable de combattre une maladie. Ces interactions sont incroyablement complexes. Une prédiction précise du comportement d'une molécule nécessite d'énormes quantités de calculs. Il est bien sûr impossible de le faire manuellement. Mais même pour un ordinateur lambda, c'est compliqué. La modélisation d'une molécule de seulement 70 atomes devrait prendre jusqu'à 13 milliards d'années à un ordinateur classique. C'est la raison pour laquelle la découverte de nouveaux médicaments prend autant de temps. Faute de modélisation, les scientifiques testent des milliers de molécules contre une maladie cible. Les ordinateurs quantiques peuvent simuler toutes les interactions entre les particules qui composent les molécules. De quoi trouver plus rapidement des médicaments efficaces. Début 2021, le laboratoire suisse Roche a annoncé un partenariat avec Cambridge Quantum Computing, depuis racheté par Honeywell Quantum, pour entamer des recherches sur la maladie d'Alzheimer. Dans le monde des batteries électriques aussi, la révolution quantique tape à la porte. La recherche de meilleures propriétés pour construire les batteries de demain commence aujourd'hui. Et là aussi, il s'agit de simulation moléculaire. Cette fois, il s'agit de modéliser le comportement de molécules pour trouver de nouveaux matériaux de batterie. Le constructeur automobile allemand Daimler s'est associé à IBM pour construire des batteries au lithium-soufre plus performantes, plus durables et moins coûteuses que les batteries au lithium-ion actuelles. Enfin, dans le monde de la banque et de la finance, l'informatique quantique met aussi le pied dans la porte. Elle pourrait révolutionner une procédure connue sous le nom de méthode de Monte-Carlo. La méthode de Monte-Carlo consiste à fixer le prix des actifs financiers en fonction de l'évolution dans le temps du prix d'autres actifs, comme celui des actions, des devises ou encore des matières premières. La procédure se résume donc à prédire l'évolution du marché, à grand renfort de volumes extravagants de données. Et de calculs surpuissants. Les ordinateurs quantiques pourraient accélérer jusqu'à 1 000 fois les calculs de la méthode de Monte-Carlo, selon des recherches menées par les banques Goldman Sachs et JP Morgan. Les ingénieurs de Goldman Sachs ont déjà modifié leurs algorithmes pour pouvoir exécuter la simulation de Monte-Carlo sur du matériel quantique qui pourrait être disponible d'ici à cinq ans. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Nov 17 2021
3 mins
La mode des Chromebook, c'est fini
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi la mode des Chromebook, c'est fini. Et pourquoi cela ravit les fabricants d’ordinateurs. On les prédisait révolutionnaires, et voici qu'ils patinent. Les ordinateurs Chromebook ne sont subitement plus à la mode. Mais avant d'aller plus loin, il faut que je vous explique la spécificité de ces ordinateurs vraiment pas comme les autres. Ces ordinateurs sont équipés du système d'exploitation Chrome OS, et non pas de Windows, MacOS ou encore d'une distribution Linux. Par ailleurs, les logiciels et applications que vous utilisez habituellement sur votre ordinateur ne sont pas forcément disponibles sur un Chromebook. Ou en tout cas pas de la même manière. Par exemple, la suite bureautique Office ne peut être installée sur cet ordinateur. Vous devez utiliser obligatoirement Office 365, la version web de cet outil très populaire, accessible uniquement via un navigateur. Enfin, ces ordinateurs sont généralement vendus moins chers que des ordinateurs portables classiques. Et ça, c'est très important pour comprendre la suite. Il faut dire que c'est le secteur de l'éducation qui est le plus friand de Chromebook. Avec la mise en place des cours a distance du fait de la pandémie, la demande a explosé depuis deux ans. Mais après cinq trimestres de croissance continue, les ventes de Chromebook sont désormais en chute libre. Des six fabricants d'ordinateurs qui proposent ces modèles, seul Samsung assure désormais avoir des ventes en croissance. HP, Acer ou encore Lenovo voient leurs ventes de Chromebook sombrer. Selon l'analyste IDC, les livraisons de Chromebook ont chuté de 29,8 % au troisième trimestre 2021, par rapport à l'année dernière. La raison ? Les principaux marchés arrivent à saturation. Ce trimestre, il ne s'est vendu que 6,5 millions de Chromebook de par le monde. Mais la saturation n'explique pas tout. IDC pointe également la pénurie actuelle de composants pour expliquer une réduction de l'offre de la part des fabricants. Oui, car les fabricants d'ordinateurs ne perdent pas le nord. Car la production de Chromebook tire les marges vers le bas. Ce sont des ordinateurs qui sont vendus peu chers, on l'a vu. Et donc, les fabricants d'ordinateurs préfèrent utiliser les quelques semi-conducteurs dont ils disposent en ce moment pour vendre à des prix bien plus élevés des PC classiques, dont la demande ne s’essouffle toujours pas. Le plafond de verre des Chromebook est donc en partie entretenu par les fabricants d'ordinateurs, enchantés d’améliorer leurs marges avec d’autres ordinateurs, vendus bien plus chers. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Nov 16 2021
2 mins
Les débit et latence (théoriques) de la 6G
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je suis Pierre Benhamou et aujourd’hui je mets la charrue avant les bœufs pour vous parler débit et latence de la 6G... Mais aussi de la genèse bien compliquée du successeur désigné de la 5G. Alors, je sais, vous me direz certainement qu’il est un peu tôt pour évoquer la 6G. Non sans raison, alors que l’infrastructure 5G commence tout juste à être déployée sur une partie du territoire français. C’est pourtant méconnaître la temporalité des acteurs du marché. Rappelons en effet que des groupes comme Ericsson, Huawei ou Orange travaillent comme il est d’usage par tranche décennale pour concevoir les futures générations de technologies mobiles.  A l’image d’ailleurs de Nokia, chargé par l’Union européenne de donner naissance aux premiers standards européens de la 6G. Dans un récent livre blanc, l’équipementier scandinave a brossé une première ébauche des caractéristiques de la 6G. Alors accrochez-vous bien, en ce qui concerne d’abord la latence, les délais de réponse prévus pour la 6G devraient tomber sous la barre des 0,1 milliseconde. Niveau débits, Nokia évoque un débit théorique allant au-delà de la barre des 100 Gb/s. Pour parvenir à ces performances, l’IA et le machine learning devraient automatiser la gestion du trafic 6G, y compris dans le cœur de réseau. Comment ? Et bien, en optimisant la formation de faisceaux dans la couche radio. Tout devrait aussi changer niveau fréquences. La 6G utilisera des bandes moyennes de 7 à 20 GHz et des bandes basses de 460 à 694 MHz pour assurer la couverture outdoor et indoor. Autre nouveauté, la 6G s’appuiera sur les bandes térahertz, déjà utilisées pour des applications de météorologie ou d’astronomie. Alors la 6G, une rupture technologique ? Et bien, contrairement aux apparences, pas vraiment. Nokia admet, je cite, que « la 6G s'appuiera sur la 5G en ce qui concerne de nombreux aspects technologiques et cas d'utilisation ». Car oui, ce sont les même cas d’usage dont on entend parler depuis des lustres. Communications vidéo en temps réel, expériences holographiques, jumeaux numériques ; autant d’exemples déjà cités par les promoteurs de la 5G, de la 4G, voire même de la 3G. Mais contrairement à ses aînés, la gestation de la 6G s’écrit dans un contexte géopolitique bien plus complexe qu’auparavant. Alors que les tensions entre Washington et Pékin sont au plus haut, exit toute idée de collaboration sur un standard mondial. D’un côté, Huawei et les acteurs chinois se sont regroupés pour élaborer une 6G à la chinoise. De l’autre, les acteurs occidentaux planchent également sur leur propre conception du futur des technologies mobiles. Ces derniers s’entendent tout de même sur un calendrier commun. Le travail de normalisation de cette 6G devrait débuter aux alentours de 2025, pour une commercialisation prévue à compter de 2030. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Nov 15 2021
3 mins
Comment la filiale électronique ressuscite en Centre Val-de-Loire
Bonjour à tous et bienvenue dans ce nouveau numéro du ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Clarisse Treilles et aujourd'hui je vais vous expliquer comment la filiale électronique française ressuscite dans la région du Centre Val-de-Loire, à l’abri des aléas de la chaîne d’approvisionnement mondiale. 15 milliards d’euros de chiffre d’affaires pour un millier d’entreprises. Ca, c’est le poids du secteur électronique dans l’Hexagone, selon le conseil national de l’industrie. Dans cet ensemble, le groupe Lacroix est un acteur historique dans l’électronique à destination des industries de l’automobile, de la domotique ou encore de la santé. Grâce à un partenariat scellé avec la start-up française Ledger, il ajoute dorénavant les cryptomonnaies à sa palette. De quoi s’agit-il concrètement ? Lacroix va produire les cartes électroniques des portefeuilles sécurisés de Ledger. Baptisées Nano, ce sont des clés USB qui contiennent les fortunes numériques des possesseurs de cryptomonnaies telles que le fameux Bitcoin, mais aussi le Ripple, ou encore le Monero. Face à l’envolée des ventes de ses appareils, Ledger avait déménagé en 2017 ses sites de production en Chine, avant de changer de stratégie et de tout rapatrier deux ans plus tard à Vierzon, au siège de l’entreprise. Le bouclage d’une nouvelle levée de fonds record de 380 millions de dollars en juin dernier lui permet désormais d’envisager beaucoup plus gros. A deux heures de route de Vierzon, la nouvelle usine flambant neuf de Lacroix va permettre à Ledger de changer de braquet en dopant sa capacité de production de portefeuille crypto. Une usine 4.0, connectée et automatisée, de 16 000 mètres carrés, qui coche toutes les cases exigées par Ledger. Sécurité, agilité, qualité et volume. Voici les quatre priorités soulignées par Pascal Gauthier, le PDG de Ledger, à propos de cet accord régional. Car il s’agit bien là d’une intégration verticale d’acteurs locaux situés dans la même région française, le Centre Val-de-Loire. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast preferées.
Nov 11 2021
2 mins
Pourquoi la qualification SecNumCloud devient capitale
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vais vous expliquer ce qu’est la qualification SecNumCloud de l’Anssi, et pourquoi elle prend une telle importance. Alors SecNumCloud, c’est quoi ? C’est le nom donné à une qualification décernée par l’Anssi, l’Agence nationale de la sécurité des systèmes d’information, pour attester des bonnes pratiques de sécurité techniques et juridiques des hébergeurs de cloud. Ça, c’est la version courte. On va la reprendre un peu dans le détail. Tout d’abord, qu’est-ce qu’une qualification ? Une qualification de l’Anssi, cela signifie que le produit ou le service a été testé et éprouvé. Et qu’il est donc recommandé par l’Etat français. Parmi ces qualifications, il y a le très fameux SecNumCloud. Une qualification réservée aux hébergeurs de cloud. Des acteurs français comme Oodrive ou Outscale ont été les premiers à l’obtenir. Et d’autres comme Amazon Web Services ou Azure de Microsoft pourraient y prétendre. Même si, dans les faits, c’est un peu plus compliqué pour ces deux là. Mais on va y revenir. SecNumCloud garantit donc que l’hébergeur respecte l’état de l’art en matière de sécurité informatique. C’est une validation technique importante, car de nombreuses entreprises déportent leurs données et applications chez ces hébergeurs cloud. Si un attaquant parvient à compromettre l’hébergeur, il disposera d’un accès privilégié aux données des clients. Donc, pour vous convaincre d’aller stocker vos données chez ces hébergeurs, le tampon SecNumCloud est une garantie non négligeable, voire obligatoire dans certains cas.  Depuis 2016, SecNumCloud était une qualification purement technique.  L’Anssi se contentait de vérifier que les conditions techniques étaient réunies par l’hébergeur en matière de sécurité. Théoriquement, des acteurs américains comme Azure, de Microsoft, ou Amazon Web Services pouvaient donc prétendre à la qualification.  Mais en fait, c’est bien plus compliqué. Car aux Etats-Unis, la loi permet aux autorités judiciaires et de renseignement d’accéder aux données hébergées par un fournisseur de cloud américain. Une menace que l’on désigne sous le terme de « loi extraterritoriale ». Ici, le risque n’est donc pas technique, mais juridique. La simple existence de ce type de loi empêche les gros acteurs américains d’obtenir la qualification SecNumCloud.  Reste que plutôt que de réserver le marché du cloud sécurisé à une poignée d’acteurs français validés SecNumCloud, le gouvernement a choisi de revoir sa copie et de lancer le label Cloud de confiance.  Ce label introduit en plus plusieurs conditions juridiques visant à protéger les données des clients des risques liés aux lois extraterritoriales. Cette évolution va permettre de proposer des offres basées sur des technologies Azure ou Google Cloud, mais en s’assurant que les données restent hébergées sur le territoire européen. Et qu’elles ne sont donc pas soumises aux lois extraterritoriales.  Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast preferées.
Nov 10 2021
2 mins
La cybersécurité va mettre le pied dans la porte des conseils d’administration
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je suis Guillaume Serries et aujourd’hui je sors ma boule de voyante pour expliquer comment la cybersécurité va mettre le pied dans la porte des conseils d’administration des entreprises.   Si jusqu’alors les attaques informatiques décimaient les ordinateurs, elles vont tuer des êtres humains de chair et d’os d'ici 2025.   C’est en tout cas une des prévisions du cabinet d’analyse Gartner, qui fait le point sur ce qui va arriver dans le domaine de la cybersécurité dans les mois qui viennent.   Déjà cette année, des hôpitaux et des usines ont été bloqués ou perturbés par des malwares et des ransomwares. Pas incroyable donc de s’attendre à ce que malheureusement des victimes soient prochainement à déplorer du fait des attaques informatiques.   L’autre tendance lourde de ce secteur, c’est l’encadrement de la cybersécurité par des textes de loi.   Gartner s'attend justement à ce qu'au moins 30 % des pays du monde adoptent une forme de législation sur les ransomwares. Une manière peut-être de réguler un phénomène jusqu’à présent totalement hors de contrôle.   Et, par ailleurs, 75 % de la population mondiale sera couverte d'une manière ou d'une autre par une loi sur la protection de la vie privée, dit le Gartner. Oui, c’est bien le RGPD pour tous dont nous parlons ici. Le règlement général sur la protection des données, une initiative européenne, va contaminer le monde d’ici 2023.   Ce sont ces nouveaux cadres juridiques et l’augmentation des risques qui auront des conséquences cruciales sur la gouvernance des entreprises.   En clair, la cybersécurité va pousser les portes du conseil d’administration. D'ici 2025, 40 % de ces instances dirigeantes disposeront de comités dédiés à la cybersécurité, ou d'au moins un membre qualifié chargé de superviser la cybersécurité.   Enfin, dernière prévision, l’atomisation des acteurs de l’écosystème de la cybersécurité, c’est terminé. Une consolidation massive est à l’œuvre. Au point que 30 % des clients finiront par utiliser le même fournisseur de services de sécurité de cloud et de edge computing d'ici 2024.   Des services qui seront non plus installés sur des serveurs ou des ordinateurs, mais fournis sous la forme de solutions en mode SaaS.   Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 9 2021
2 mins
Comment un port USB-C s'est retrouvé sur un iPhone suisse
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vais vous expliquer comment un port USB-C s'est retrouvé sur un iPhone suisse.   Oui, il existe un iPhone qui fonctionne avec un port USB-C. Et non, vous ne pouvez pas l'acheter. Cet iPhone si particulier se trouve au pays du Gruyère, dans les mains de Ken Pillonel, un tout jeune étudiant en master de robotique à l'Ecole polytechnique fédérale de Lausanne.   C'est lui qui a bricolé ce smartphone mutant, débarrassé du célèbre port propriétaire Lightning de la marque à la pomme. Son iPhone X permet désormais à la fois de charger et de transférer des données via le protocole USB-C.   "L’idée m’est venue à la suite de ma frustration", dit l'étudiant au quotidien suisse Le Temps. Après un an et demi de travail, il prévoit de publier sa trouvaille sous licence open source dans les semaines à venir. Déjà plus de 17 000 personnes se sont abonnées à sa chaîne YouTube créée pour l'occasion. "J’imagine que d’autres personnes se baseront sur mes plans pour les reproduire ou même les modifier", dit-il. Théoriquement, son schéma électronique fonctionne sur tous les iPhone qui ont un port Lightning, iPhone 13 inclus.   Au delà du petit exploit technique, ce projet mené à bien par le jeune helvète met en lumière la face sombre d'Apple. L'entreprise verrouille littéralement son matériel dans le seul but de préserver ses marges sur les accessoires tels que les câbles de recharge.  Apple est sur ce point le seul fabricant à imposer son port Lightning aux utilisateurs et à l'industrie, alors que tous les autres fabricants adoptent le standard USB-C.   A présent, donc, Ken Pillonel peut utiliser le même chargeur pour tous ses appareils électroniques. "Cela simplifie le quotidien", précise t-il, ajoutant que cela va également réduire la quantité de déchets électroniques.   C'est d'ailleurs très exactement sur la base de cet argument écologique et de celui de l'interopérabilité que la Commission européenne souhaite imposer l'USB-C à tous les fournisseurs de smartphones. Un texte doit prochainement voir le jour pour forcer Apple à passer à l'USB-C pour ses iPhone. Cela ne devrait pas être très compliqué techniquement, puisque les ordinateurs de la marque sont déjà équipés de cette technologie.   Et si Tim Cook ne sait toujours pas comment faire, il pourra demander à Ken Pillonel.   Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 8 2021
2 mins
Sur les navires autonomes, le capitaine reste seul maître à bord, après Dieu
Bonjour à tous et bienvenue dans le ZDTech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vais vous expliquer pourquoi, à l'heure des navires autonomes, le capitaine reste tout de même le seul maître à bord, après Dieu.   Le prochain véhicule autonome que vous risquez de croiser ne sera pas au bout de la rue. Vous pourrez l'accoster ou le couler. Oui, il s'agira d'un bateau.   Ou d'un sous-marin militaire. L'entreprise Naval Group vient d'annoncer la mise à l'eau de son premier démonstrateur de drones sous-marin océanique.   De quoi tester ce que Naval Group appelle, « l'autonomie décisionnelle contrôlée », c'est-à-dire la capacité de contrôler l'engin à grande distance, et en grande profondeur.   Dans le domaine civil également, le navire autonome a la cote. Le français SeaOwl, spécialisé dans la gestion des installations offshore en haute mer, teste lui aussi un navire téléopéré par satellite, et vidé lui aussi de son équipage.   Ce sont ces initiatives qui ont décidé les autorités à se pencher sur le statut juridique des drones maritimes et des navires autonomes.   Une ordonnance relative aux conditions de navigation de ces nouveaux engins vient d'être publiée au Journal officiel. Elle reconnaît la spécificité de ces deux nouvelles catégories d'engins flottants.   Et le texte précise qu'une des plus vieilles lois maritimes au monde persiste sur ces nouveaux engins.   Oui, le capitaine est toujours le seul maître à bord après Dieu. Aucun système autonome, aucune intelligence artificielle, ne pourra être jugé responsable d'une décision heureuse ou malheureuse à bord d'un navire.   Le capitaine demeure celui qui exerce le « commandement du navire autonome », précise le texte.   Le texte crée aussi une nouvelle catégorie d'engins flottants. Il s'agit des drones maritimes, une catégorie bien distincte des navires.   Les drones maritimes sont des engins flottants de surface ou sous-marins, opérés à distance ou par ses propres systèmes d'exploitation, sans personnel, sans passager, et sans fret à bord.   Des objets flottants désormais identifiés, à l'utilisation très particulière. Ces drones ne seront pas astreints à l'obtention de titres de navigation.   Ils devront toutefois être immatriculés et posséder un pavillon. Et seront soumis, bien sûr, aux règles de circulation maritime et devront être assurés.   Enfin, les pilotes à distance de ces engins devront aussi être titulaires d'un titre de conduite en mer, et suivre une formation spécifique.   Oui, même à terre, le capitaine restera le seul maître à bord des engins qui croisent en mer, après Dieu.   Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 4 2021
2 mins
Le télétravail pose problème, voici pourquoi
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Pierre Benhamou et aujourd’hui, je vais vous expliquer pourquoi le télétravail pose problème. Vous vous en souvenez, avec les mesures de confinement imposées pour combattre la pandémie de Covid-19, nous avons été nombreux à travailler depuis notre domicile, avec les avantages et les contraintes que cela entraîne. Si les entreprises du tertiaire ont largement accompagné ce mouvement, elles en reviennent aujourd’hui, comme on va le voir. Rappelons-le, le télétravail, ou travail à distance, peut prendre des formes très différentes selon les entreprises qui le mettent en place. Ca ne vous a certainement pas échappé, mais beaucoup de géants du numérique, à commencer par Twitter ou Facebook, ont généralisé le télétravail complet. Résultat : finie la vie de bureau, les salariés peuvent s’installer où ils le souhaitent, et cela, de manière permanente. En France, les entreprises sont plus mesurées et tablent davantage sur un télétravail hybride, comprenant à la fois des jours de travail à distance et des jours de travail sur site. Reste qu’avec le recul, certains promoteurs du télétravail complet en reviennent aujourd’hui. C’est notamment le cas de Microsoft, qui vient de publier une étude pour illustrer l’impact du télétravail sur la productivité de ses équipes. Pour le géant américain, c’est désormais clair : le télétravail ne peut pas tout. Microsoft affirme aujourd’hui que ses équipes sont plus cloisonnées et passent moins de temps à communiquer entre elles. C’est bien simple, pour la firme de Redmond, le télétravail a même fait chuter de 25 % le temps que les salariés passent à collaborer entre eux. L’entreprise promet de prendre des mesures pour protéger l’innovation et le partage d’informations. Reste que le télétravail continue à avoir son lot de partisans. Pour ces derniers, le travail à domicile réduit les temps de trajet, élimine les distractions au bureau et contribue à rétablir un certain équilibre entre vie professionnelle et vie privée. On le voit, si le télétravail divise autant, c’est surtout qu’il lui reste encore beaucoup de chemin à parcourir pour s’installer durablement dans notre quotidien. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 3 2021
2 mins
Comment Let’s Encrypt a changé la face du web
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vais vous expliquer pourquoi Let’s Encrypt a changé la face du web.   En un peu moins de 10 ans d’existence, ce projet a démocratisé le chiffrement. Son arme secrète pour y parvenir ? Proposer des certificats électroniques gratuits ET de manière automatisée. Et donc permettre à n’importe qui de chiffrer le trafic de ses sites web.   Car cela fait 30 ans que l’on sait chiffrer les échanges sur le web, notamment via le protocole HTTPS. Cela permet d’empêcher l’interception des données échangées entre un utilisateur et un site web.   Le cœur de ce protocole, ce sont les certificats électroniques émis par les autorités de certifications.  Mais qu’est-ce qu’un certificat électronique ? C’est un document numérique comparable à une carte d’identité.   Et le rôle d’une autorité de certification est à la fois de fournir cette pièce d’identité et de s’assurer de l’identité du détenteur. Des vérifications qui peuvent aller jusqu’au coup de téléphone afin de s’assurer que l’organisation qui demande un certificat est bien réelle.   De nombreuses autorités de certifications existent. Ce sont des sociétés commerciales, qui vendent leurs certificats, et elles ont amassé des fortunes en le faisant.   Mais l’arrivée de Lets Encrypt sur le marché va bousculer ces autorités.   L’idée de génie ? Proposer des certificats électroniques accessibles à tous.   Contrairement à ses concurrents, Let’s Encrypt n’est pas une société commerciale. Ses certificats sont gratuits et faciles à mettre en place. Et elle ne s’embarrasse pas de vérifications avancées sur l’identité des demandeurs de certificats.   C’est ainsi que Let’s Encrypt est devenu l’acteur majeur des autorités de certifications. Et c’est aussi comme cela qu’en cinq ans, l’utilisation du protocole HTTPS est passé de 50 % à 95 % sur les sites web.   Alors, quel est le revers de la médaille ? Déjà, son rôle de plus en plus central. Quand Let’s Encrypt rencontre des problèmes, c’est potentiellement un très grand nombre de sites et de services qui peuvent être affectés en cascade.   L’autre inquiétude, ce sont les usages malveillants. Comme Let’s Encrypt ne vérifie pas l’identité de ses utilisateurs, la présence d’un de leurs certificats sur un site ne garantit pas grand-chose. Un site frauduleux peut tout à fait utiliser un certificat Let’s Encrypt et se donner l’apparence d’un site sécurisé sans débourser un centime.   Mais sans Let’s Encrypt, la technologie HTTPS serait restée un privilège réservé aux entreprises ayant les moyens de se l’offrir.   Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 2 2021
2 mins
Les drones, futurs rois de la livraison à domicile
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer pourquoi les drones vont devenir les rois de la livraison à domicile. 10 000 tasses de café, 1 200 poulets rôtis, 2 700 plateaux de sushi et 1 000 miches de pain. Cet inventaire à la Prévert recense une petite partie des livraisons effectuées avec des drones par Wing, une filiale de Google, dans la ville de Logan, en Australie. Si les essais de livraison par drone existent depuis des années, la nouveauté ici vient du modèle logistique. Car la piste d'envol et d'atterrissage des drones est positionnée sur le toit d'un centre commercial. Alors que jusqu'alors les drones décollaient de centre logistiques éloignés des magasins. "Pour la première fois, nous partageons nos drones avec les entreprises dans leurs locaux, plutôt que de laisser les entreprises locales partager leurs marchandises avec nous dans notre centre de livraison" s'enthousiasme sur ce point un responsable de Wing Australie. L'expérience a débuté à la mi-août 2021, et bientôt de nouveaux produits seront disponibles à la livraison par ces drones capables de transporter un peu plus d'un kilo de marchandises. Une pharmacie devrait très prochainement utiliser ce moyen de livraison pour proposer des médicaments et des produits de parapharmacie. Une fois que le drone a slalomé dans le ciel de Logan à la recherche de son point de livraison, il dépose le colis, et repart. Ce n'est qu'ensuite que le client est prévenu. Ainsi, aucun risque d'accident entre le drone et le destinataire du colis. Pour Wing et les commerçants partenaires, ce nouveau moyen de livraison permet de tester une solution au problème numéro un du e-commerce : c'est en effet le dernier kilomètre de la livraison d'un produit qui coûte le plus cher au commerçant, ce qui rend prohibitif les frais de livraison pour bon nombre de produits, comme les tasses de café. Les promoteurs de la solution assurent également que la livraison par drone éviter de rajouter des bouchons sur la route. Mais un problème tout à fait inattendu se pose néanmoins. Les drones, qui ont une portée de près de 10 kilomètres, sont depuis peu sujet à des attaques en plein vol de corbeaux, visiblement irrités par cette concurrence territoriale. En attendant de trouver une solution à ce problème de cohabitation avec les volatiles, Wing a décidé de réduire la voilure, sans toutefois cesser ses essais. Cette mésaventure rappelle celle de la Police parisienne, dont les drones de surveillance de manifestation avaient été attaqués il y a deux ans, une dizaine de fois, par des goélands furieux aux abords de la Seine. De quoi obliger les pilotes a faire revenir leurs engins au sol. Un arrêt définitif, car depuis, le conseil d'Etat a interdit à la préfecture de Police de Paris l'utilisation des drones pour surveiller les manifestations publiques. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Nov 1 2021
2 mins
Les 4 fonctionnalités essentielles d'un logiciel de gestion de projet
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer comment bien choisir son logiciel de gestion de projet en entreprise. Le logiciel de gestion de projet permet aux gestionnaires de projets et aux équipes projet de planifier, suivre et maîtriser les différentes étapes et processus de leurs activités. Cet outil a donc pour but de simplifier et d’améliorer la gestion des projets. Mais aussi d’accroître la productivité. L’application doit donc être polyvalente, mais aussi collaborative, pour permettre le partage des informations. Et assurer la planification des tâches. Bien sûr, tout dépend des besoins de l’entreprise, mais de manière générale, un outil de gestion de projet permet d’apporter deux éléments : D'une part une maîtrise précise des budgets et des délais, et ce de manière industrialisée et standardisée. Pour ce faire, l’outil permet de créer des tâches, de les assigner, mais aussi de suivre l'avancement grâce à des rapports et tableaux de bord.D'autre part il permet une meilleure collaboration et une meilleure communication. Par exemple un chat intégré et des fonctions de partage de documents assurent les échanges entre collaborateurs, clients et fournisseurs.Dans cette perspective, quelles sont les quatre fonctionnalités essentielles dont doit disposer un outil de gestion de projet ? D'une fonction de planification des tâches, mais aussi de planification des produits lorsque l’application est utilisée en ingénierie ou au sein d’une équipe produit.D'une fonction de répartition des tâches et de suivi, avec la mesure du taux d’achèvement, mais également du temps et des dépenses, afin de mesurer la rentabilité des projets.De fonctions collaboratives pour gérer et centraliser les communications de l’équipe projet, en interne, et avec des prestataires et des clients.D'une brique de gestion des ressources. Pourquoi faire ? Et bien pour affecter des ressources à un projet, qu’il s’agisse de compétences internes ou externes, ou de biens et services nécessaires à la conduite du projet.A noter enfin que l'hébergement d'un logiciel de gestion de projet peut être effectuée sur un ordinateur, un serveur de l'entreprise, ou dans le cloud via une solution logicielle en mode SaaS. A vous d'étudier les meilleures options en fonction de vos besoins. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Oct 28 2021
2 mins
Pénurie de puces : nul ne sait quand cela va s'arrêter
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer pourquoi personne ne sait quand va cesser la pénurie de semi-conducteurs, qui pourrait se prolonger jusqu'en 2023. Et surtout voici pourquoi les fabricants de puces n'ont rien vu venir. Prévoir la demande est semble t-il la chose la plus difficile pour l'industrie des semi-conducteurs. Ce n'est pourtant pas la première fois que ce marché est secoué par des cycles d'expansion et de ralentissement. Et à chaque fois que cela se produit, les fondeurs promettent que cela n'arrivera plus. Et je vais vous expliquer pourquoi ils sont incapables de tenir ces promesses. Les ventes mondiales de puce avaient diminué de 12 % en 2019. Et les ventes de 2020 devaient être affectées négativement par la crise sanitaire, avec une hausse modeste des revenus prévue pour 2021 assurait l'Association de l'industrie des semi-conducteurs l'an passé. C'est pourtant tout le contraire qui s'est passé. Et le marché des puces est en croissance mensuelle de revenus de plus de 26 % d'une année sur l'autre désormais. Et donc l'industrie des semi-conducteurs prévoit maintenant une longue pénurie. Et bien sûr les revenus des fabricants explosent en 2021 et devraient se prolonger en 2022. Cependant, cette prédiction de pénurie jusqu'à au moins 2023 est probablement aussi peu fiable que les précédentes. Car il est incroyablement difficile de déterminer la demande de puces en période de pénurie.  Pourquoi ? Parce que dans ce contexte les clients commandent deux ou trois fois leurs besoins réels.  Et ils essaient de s'approvisionner par tous les moyens possibles. Cela provoque bien sûr de la fausse demande. Une fausse demande qui disparaît dès que l'offre augmente. Difficile donc de connaître la véritable demande de puces. Il s'agit évidemment d'un énorme problème pour les fabricants de puces. Surtout que la fabrication des puces prend au moins six mois. Une fois que celle-ci démarre, impossible de l'arrêter. Et il faut faire tourner les usines de fabrication de puces presque à pleine capacité. Car sinon les coûts d'exploitation deviennent rapidement insoutenables. Autrement dit, il n'est pas possible de ralentir une chaîne de production parce que la demande a baissé. Il faut continuer coûte que coûte. Quitte à faire l'impasse sur des revenus réguliers. Si l'on considère l'histoire de l'industrie des puces sur plusieurs décennies, on assistera probablement à la même chose que d'habitude : une forte hausse de la demande, suivie d'une baisse tout aussi forte. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Oct 27 2021
2 mins
La 5G divise encore sur les questions environnementales et sanitaires
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Pierre Benhamou et aujourd’hui, je vais vous expliquer pourquoi la technologie 5G continue à diviser sur les questions environnementales et sanitaires. 2,8 milliards d’euros, est-ce que ça vous dit quelque chose ? C’est la somme qu’Orange, SFR, Bouygues Telecom et Free ont déboursé à l'automne 2020 pour s'offrir les fréquences nécessaires au déploiement de cette fameuse 5G. L’investissement a beau être massif, les opérateurs ont bien évidemment un plan pour le faire fructifier. Comment, me direz-vous ? Tout simplement en promettant l'explosion des débits de nos smartphones, et la métamorphose des entreprises françaises à l’ère de l’industrie 4.0. Seulement voilà, la 5G est loin de faire l’unanimité. Pour ses détracteurs, c’est bien simple, la 5G est avant tout synonyme de dangers. Danger environnemental d’abord. La 5G est accusée de participer à l’augmentation de la consommation de données, et donc d’électricité. Danger sanitaire ensuite. La 5G est également pointée du doigt pour l’explosion des ondes électromagnétiques qu’elle pourrait engendrer. Sur ce dernier point, les autorités administratives indépendantes chargées du dossier sont pourtant unanimes. Non, la 5G n’a aucun effet sur notre santé… du moins pour le moment. L'Agence Nationale des Fréquences se veut rassurante. Mi-septembre, son rapport sur l’exposition aux ondes des smartphones 5G conclut que les limites sanitaires autorisées ne sont pas dépassées. Même constat du côté de l’Autorité sanitaire française, l’Anses.  Pour elle, l’exposition aux ondes de la 5G n'est pas différente de celle occasionnée par la 3G ou la 4G. Bémol important tout de même. Cette dernière reconnaît que l’emploi futur d’une nouvelle bande de fréquences, dite millimétrique, pourrait bien changer la donne sur le sujet. Affaire à suivre donc. Reste la question épineuse de la facture environnementale de la 5G. On s’en doute, le déploiement des réseaux de nouvelle génération de même que la vente de terminaux compatibles auront un impact sur l'environnement. Pour autant, les promoteurs de la 5G l’assurent : ce nouveau réseau sans fil permettra des économies d’énergie.  Comment ? Et bien, en ouvrant par exemple la voie à la télémédecine, l’internet des objets ou encore une industrie plus connectée. On le voit, le dossier brûlant de la 5G et de son impact sur notre quotidien est encore loin d’être refermé. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Oct 26 2021
2 mins
A quand la télésurveillance médicale ?
Bonjour à tous et bienvenu dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Clarisse Treilles et aujourd’hui, je vais vous expliquer pourquoi la télésurveillance médicale pourrait devenir le futur de la médecine... mais surtout qu'est-ce qui manque pour que cela devienne une réalité ? Rien de plus simple aujourd'hui pour réaliser une téléconsultation avec son médecin : un smartphone et une bonne connexion suffisent. D’ailleurs, la télémédecine s'est accélérée pendant la pandémie. Mais la télésurveillance médicale, c'est une autre paire de manches. Car dans télésurveillance il y a surveillance. Ce dispositif permet de suivre à distance l'état de santé d'une personne atteinte d'une maladie, à l'aide d'objets connectés. Et le problème n'est pas technique. Des appareils permettent de contrôler le rythme cardiaque, la pression artérielle ou encore de mesurer l'oxymétrie (c'est-à-dire, le taux de saturation en oxygène dans le sang). A des kilomètres de distance, des médecins reçoivent et analysent les données récoltées, et décident d'agir en conséquence. Si la télésurveillance est aussi pertinente, qu'est-ce qui cloche ? A ce jour, il n’existe qu’un programme expérimental, qui ne couvre que 5 maladies - et qui s’arrête à la fin de l’année. Et rien n'est arrêté sur la tarification des actes, et le remboursement. Sans ces deux éléments, la greffe de la télésurveillance ne peut pas prendre.  D'ici à la fin de l'année, on devrait pourtant y voir un peu plus clair. Le projet de loi de financement de la Sécurité sociale pour 2022 pourrait généraliser la télésurveillance médicale. C'est en tout cas le souhait du Snitem, le Syndicat national de l'industrie des technologies médicales. Le syndicat voit dans ce dispositif une réponse à la désertification médicale des campagnes. Ce serait enfin l'étape qui permettrait de sortir du "flou législatif" dans lequel se trouve aujourd'hui la télésurveillance médicale. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées.
Oct 25 2021
2 mins

0:00