Magazine Gadgets

Les principales tendances de la technologie Big Data à ne pas manquer

Publié le 28 mai 2021 par Mycamer

Avec la vitesse sans précédent des transformations numériques induites par les données, les entreprises sont désireuses de capitaliser et de capturer une tranche des tendances émergentes du Big Data et des informations applicables. La poussée est si forte en ce moment qu’une enquête a révélé que neuf dirigeants d’entreprise sur dix se préparent à investir dans le big data et l’intelligence artificielle (IA).

Guidées par l’analyse numérique, les organisations de tous les secteurs innovent à grands pas, démontrant la puissance et l’influence des mégadonnées. Cependant, la transformation n’est pas isolée des tendances actuelles et émergentes telles que rapportées dans le dernier rapport de GlobalData sur les mégadonnées.

Les conclusions de l’entreprise, décrites dans Big data – Recherche thématique, a mis en évidence les tendances technologiques émergentes qui alimentent le monde des mégadonnées et leur impact continu. GlobalData a présenté les principales avancées et tendances technologiques destinées à remodeler le rôle du big data pour les entreprises d’aujourd’hui.

Informatique de périphérie

Étant donné que les cas d’utilisation spécifiques de l’informatique de pointe incluent la maintenance du traitement et de l’analyse des données à proximité des points de collecte. le croissance de l’informatique de pointe est donc étroitement associée à l’Internet des objets (IoT). La prolifération de initiatives IoT d’entreprise et les offres IoT grand public stimuleront la demande de solutions informatiques de périphérie.

L’informatique quantique

La course pour atteindre suprématie quantique est bien engagé, avec Google, IBM et Microsoft aux côtés d’acteurs spécialisés dans la direction de la recherche. AI et apprentissage automatique en bénéficieront, car les ordinateurs quantiques ont la capacité de effectuer des calculs extrêmement complexes, impliquant de grands ensembles de données en une fraction du temps.

Puces AI

Les unités centrales de traitement (CPU) ont centres de données alimentés depuis des décennies, mais actuellement il y a un grave pénurie mondiale de puces semi-conductrices afin qu’ils puissent être affectés négativement. Pourtant, de nouvelles charges de travail découlant de des technologies telles que l’IA et l’IoT poussent les architectures CPU à de plus hauts sommets. Les unités de traitement graphique (GPU) peuvent traiter de nombreux threads en parallèle, ce qui les rend idéales pour la formation et la modélisation de grands modèles de données prédictives.

Interconnexion de centre de données (DCI)

À mesure que de plus en plus de centres de données sont en ligne dans le monde, demande croissante de données être transférés entre eux dans un temps réduit. En conséquence, le marché DCI est confronté à une énorme demande de liaisons optiques et d’émetteurs-récepteurs toujours plus rapides. Ces vitesses de transfert de données sont particulièrement importantes au niveau DCI puisque 70% de tout le trafic du centre de données est du trafic d’est en ouest avec une augmentation spectaculaire des volumes de données, et a donc un effet marqué sur l’ensemble du trafic. vitesse du centre de données.

Photonique sur silicium

Une technologie émergente – la photonique sur silicium – combine les technologies laser et silicium sur la même puce. Il permet le transfert de données entre les puces informatiques par rayons optiques et prend en charge des interconnexions plus rapides entre les centres de données. La technologie des puces photoniques est encore en phase de développement bêta et des marques de premier plan telles que Cisco, Intel et Inphi sont des fournisseurs de premier plan sur ce marché.

Informatique sans serveur

Les entreprises qui ont externalisé leurs serveurs vers infrastructure cloud en tant que service (IaaS), y compris Amazon Web Services (AWS), paient généralement à l’avance la quantité de capacité de serveur dont ils ont besoin pour l’exécution du processus. Cependant, l’IaaS est rapidement remplacé par l’informatique sans serveur, le fournisseur de cloud gère dynamiquement l’allocation des ressources d’exécution de code. Les architectures sans serveur permettent aux développeurs d’externaliser le matériel et de se concentrer sur le développement de code à valeur ajoutée.

Calcul haute performance (HPC)

HPC est l’un des segments à la croissance la plus rapide du marché du matériel informatique. La Chine domine ce segment, soutenant ainsi les industries de l’IA, de l’espace, de la défense, du design industriel, des jeux et de la génomique. Le dévoilement de la Système Sunway TaihuLight (un supercalculateur de premier plan) en 2016 a été une véritable percée. Pendant ce temps, Huawei, Lenovo et Inspur sont en concurrence agressive avec IBM et HPE dans le domaine du traitement des transactions d’entreprise et dans le cloud.

Capteurs 3D

Les capteurs 3D sont un sous-produit pratique de la technologie d’interconnexion optique, qui connaîtront une croissance phénoménale en raison de thèmes tels que réalité augmentée (AR), AI et véhicules autonomes. Dans certains systèmes AR, les caméras de détection 3D avancées utilisent des systèmes laser à émission de surface à cavité verticale (VCSEL) pour suivre les objets et détecter la profondeur 3D. Cela signifie que les principaux fournisseurs de systèmes laser VCSEL connaîtront une augmentation significative au cours de l’année prochaine.

Réseau défini par logiciel (SDN)

SDN est une architecture pour les réseaux de données qui permet au logiciel, plutôt qu’au matériel, de contrôler le chemin du réseau le long duquel les paquets de données circulent. Il est extrêmement perturbateur pour les entreprises parce qu’il change fondamentalement qui contrôle le trafic de données, et peut en effet supprimer complètement les centres de données physiques.

Logiciel de conteneur

Dans l’écosystème du logiciel open source, l’arrivée de logiciel conteneurisé du système d’exploitation marque une nouvelle ère. Le logiciel est de nature modulaire et permet aux applications d’être facilement déplacées entre différentes infrastructures informatiques. le avantages clés de la technologie des conteneurs comprennent des économies de coûts significatives, un temps de déploiement réduit, une meilleure évolutivité et une flexibilité de portage vers d’autres infrastructures. Les premiers utilisateurs de logiciels de gestion de conteneurs incluent Essaim de Docker, Google est open-source Kubernetes, OpenShift de Red Hatet d’Amazon Blox.

Analyse en temps réel

La combinaison de données en continu et d’analyses en temps réel a le potentiel de création de valeur pour les entreprises. L’une des tendances les plus remarquables des données d’enchères sera le streaming instantané qui permet aux entreprises de recueillir de plus grandes informations à portée de main, accélérant la prise de décision.

5G

L’adoption généralisée à grande échelle de la 5G a le potentiel d’augmentation de la consommation de données à l’échelle mondiale. La 5G promet une vitesse plus élevée et une faible latence, avec la superpuissance pour connecter environ un million d’appareils par kilomètre carré. GlobalData estime que d’ici 2024, plus d’un quart de tout le trafic de données sera acheminé via la 5G, contre moins de 1% en 2019.

Joe Devanesan

&version;&appId;

Avec la vitesse sans précédent des transformations numériques induites par les données, les entreprises sont désireuses de capitaliser et de capturer une tranche des tendances émergentes du Big Data et des informations applicables. La poussée est si forte en ce moment qu’une enquête a révélé que neuf dirigeants d’entreprise sur dix se préparent à investir dans le big data et l’intelligence artificielle (IA).

Guidées par l’analyse numérique, les organisations de tous les secteurs innovent à grands pas, démontrant la puissance et l’influence des mégadonnées. Cependant, la transformation n’est pas isolée des tendances actuelles et émergentes telles que rapportées dans le dernier rapport de GlobalData sur les mégadonnées.

Les conclusions de l’entreprise, décrites dans Big data – Recherche thématique, a mis en évidence les tendances technologiques émergentes qui alimentent le monde des mégadonnées et leur impact continu. GlobalData a présenté les principales avancées et tendances technologiques destinées à remodeler le rôle du big data pour les entreprises d’aujourd’hui.

Informatique de périphérie

Étant donné que les cas d’utilisation spécifiques de l’informatique de pointe incluent la maintenance du traitement et de l’analyse des données à proximité des points de collecte. le croissance de l’informatique de pointe est donc étroitement associée à l’Internet des objets (IoT). La prolifération de initiatives IoT d’entreprise et les offres IoT grand public stimuleront la demande de solutions informatiques de périphérie.

L’informatique quantique

La course pour atteindre suprématie quantique est bien engagé, avec Google, IBM et Microsoft aux côtés d’acteurs spécialisés dans la direction de la recherche. AI et apprentissage automatique en bénéficieront, car les ordinateurs quantiques ont la capacité de effectuer des calculs extrêmement complexes, impliquant de grands ensembles de données en une fraction du temps.

Puces AI

Les unités centrales de traitement (CPU) ont centres de données alimentés depuis des décennies, mais actuellement il y a un grave pénurie mondiale de puces semi-conductrices afin qu’ils puissent être affectés négativement. Pourtant, de nouvelles charges de travail découlant de des technologies telles que l’IA et l’IoT poussent les architectures CPU à de plus hauts sommets. Les unités de traitement graphique (GPU) peuvent traiter de nombreux threads en parallèle, ce qui les rend idéales pour la formation et la modélisation de grands modèles de données prédictives.

Interconnexion de centre de données (DCI)

À mesure que de plus en plus de centres de données sont en ligne dans le monde, demande croissante de données être transférés entre eux dans un temps réduit. En conséquence, le marché DCI est confronté à une énorme demande de liaisons optiques et d’émetteurs-récepteurs toujours plus rapides. Ces vitesses de transfert de données sont particulièrement importantes au niveau DCI puisque 70% de tout le trafic du centre de données est du trafic d’est en ouest avec une augmentation spectaculaire des volumes de données, et a donc un effet marqué sur l’ensemble du trafic. vitesse du centre de données.

Photonique sur silicium

Une technologie émergente – la photonique sur silicium – combine les technologies laser et silicium sur la même puce. Il permet le transfert de données entre les puces informatiques par rayons optiques et prend en charge des interconnexions plus rapides entre les centres de données. La technologie des puces photoniques est encore en phase de développement bêta et des marques de premier plan telles que Cisco, Intel et Inphi sont des fournisseurs de premier plan sur ce marché.

Informatique sans serveur

Les entreprises qui ont externalisé leurs serveurs vers infrastructure cloud en tant que service (IaaS), y compris Amazon Web Services (AWS), paient généralement à l’avance la quantité de capacité de serveur dont ils ont besoin pour l’exécution du processus. Cependant, l’IaaS est rapidement remplacé par l’informatique sans serveur, le fournisseur de cloud gère dynamiquement l’allocation des ressources d’exécution de code. Les architectures sans serveur permettent aux développeurs d’externaliser le matériel et de se concentrer sur le développement de code à valeur ajoutée.

Calcul haute performance (HPC)

HPC est l’un des segments à la croissance la plus rapide du marché du matériel informatique. La Chine domine ce segment, soutenant ainsi les industries de l’IA, de l’espace, de la défense, du design industriel, des jeux et de la génomique. Le dévoilement de la Système Sunway TaihuLight (un supercalculateur de premier plan) en 2016 a été une véritable percée. Pendant ce temps, Huawei, Lenovo et Inspur sont en concurrence agressive avec IBM et HPE dans le domaine du traitement des transactions d’entreprise et dans le cloud.

Capteurs 3D

Les capteurs 3D sont un sous-produit pratique de la technologie d’interconnexion optique, qui connaîtront une croissance phénoménale en raison de thèmes tels que réalité augmentée (AR), AI et véhicules autonomes. Dans certains systèmes AR, les caméras de détection 3D avancées utilisent des systèmes laser à émission de surface à cavité verticale (VCSEL) pour suivre les objets et détecter la profondeur 3D. Cela signifie que les principaux fournisseurs de systèmes laser VCSEL connaîtront une augmentation significative au cours de l’année prochaine.

Réseau défini par logiciel (SDN)

SDN est une architecture pour les réseaux de données qui permet au logiciel, plutôt qu’au matériel, de contrôler le chemin du réseau le long duquel les paquets de données circulent. Il est extrêmement perturbateur pour les entreprises parce qu’il change fondamentalement qui contrôle le trafic de données, et peut en effet supprimer complètement les centres de données physiques.

Logiciel de conteneur

Dans l’écosystème du logiciel open source, l’arrivée de logiciel conteneurisé du système d’exploitation marque une nouvelle ère. Le logiciel est de nature modulaire et permet aux applications d’être facilement déplacées entre différentes infrastructures informatiques. le avantages clés de la technologie des conteneurs comprennent des économies de coûts significatives, un temps de déploiement réduit, une meilleure évolutivité et une flexibilité de portage vers d’autres infrastructures. Les premiers utilisateurs de logiciels de gestion de conteneurs incluent Essaim de Docker, Google est open-source Kubernetes, OpenShift de Red Hatet d’Amazon Blox.

Analyse en temps réel

La combinaison de données en continu et d’analyses en temps réel a le potentiel de création de valeur pour les entreprises. L’une des tendances les plus remarquables des données d’enchères sera le streaming instantané qui permet aux entreprises de recueillir de plus grandes informations à portée de main, accélérant la prise de décision.

5G

L’adoption généralisée à grande échelle de la 5G a le potentiel d’augmentation de la consommation de données à l’échelle mondiale. La 5G promet une vitesse plus élevée et une faible latence, avec la superpuissance pour connecter environ un million d’appareils par kilomètre carré. GlobalData estime que d’ici 2024, plus d’un quart de tout le trafic de données sera acheminé via la 5G, contre moins de 1% en 2019.

Joe Devanesan

&version;&appId; — to techhq.com


Retour à La Une de Logo Paperblog

A propos de l’auteur


Mycamer Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte

Magazines