Coût total de possession (TCO pour Total Cost of Ownership)

Le coût total de possession est un outil permettant d'estimer l'ensemble des coûts d'un produit ou d'un service en vue de déterminer la valuer économique d'un investissement. Comparativement au coût du cycle de vie, le TCO ne prend pas en compte ni les coût en aval (conception, fabrication, propriété précédente) ni les coût en amont (propriété suivante et démantèlement). Dans l'industrie IT, le TCO est synonyme du coût du cycle de vie lorsqu'il s'applique aux matériel et aux logiciels. La définition a évoluée pour inclure tous les coûts associés au développement et à l'exploitation. Le calcul des TCOs est une activité complexe qui ne se limite pas aux coûts d'acquisition et d'exploitation des plateformes, produits et services mais intégrant aussi l'acquisition de licences, la rapidité des traitements, la résilience et les risques d'interruption, la qualification des composants et de leurs montées de version, la supervision, la sensibilité de la données, la proximité avec d’autres sources de données, la richesse de l’écosystème disponible, la flexibilité, la productivité ou encore le Time To Market. Par exemple, utiliser Erlang comme langage de programmation principal peut constituer un défi pour le recrutement ou la formation d'ingénieurs afin de maîtriser le langage et son écosystème. Cependant, au moment de son acquisition, l'ecosystem autour de ce langage permit à l’équipe Whatsapp d’être composée de 32 personnes, dont seulement 10 travaillaient côté serveur, de servir 450 millions d’utilisateurs actifs en 2013, de porter le service à 54 milliards de messages pour la seule journée du 31 décembre 2013, tout en développant de nouvelles fonctionnalités, en maintenant les existantes et en prenant en charge l’ensemble du système. Un autre exemple est Bleacher Report, une application et un site Web axés sur les actualités du sport, qui réduirent leurs besoins en matériel de 150 serveurs à 5 lors de la migration de Ruby vers Elixir qui, comme Erlang, repose sur le moteur BEAM.

En savoir plus
Wikipédia

Articles associés

Spark Streaming Partie 2 : traitement d'une pipeline Spark Structured Streaming dans Hadoop

Spark Streaming Partie 2 : traitement d'une pipeline Spark Structured Streaming dans Hadoop

Catégories : Data Engineering, Formation | Tags : Apache Spark Streaming, Spark, Python, Streaming

Spark est conçu pour traiter des données streaming de manière fluide sur un cluster Hadoop multi-nœuds, utilisant HDFS pour le stockage et YARN pour l’orchestration de tâches. Ainsi, Spark Structured…

RYNKIEWICZ Oskar

Par RYNKIEWICZ Oskar

28 mai 2019

Éviter les blocages dans les pipelines distribués de Deep Learning avec Horovod

Éviter les blocages dans les pipelines distribués de Deep Learning avec Horovod

Catégories : Data Science | Tags : GPU, Deep Learning, Horovod, Keras, TensorFlow

L’entraînement des modèles Deep Learning peut être grandement accéléré en utilisant un cluster de GPUs. Lorsqu’il s’agit de grandes quantités de données, effectuer des calculs distribués devient…

JOUET Grégor

Par JOUET Grégor

15 nov. 2019

Innovation, culture projet vs culture produit en Data Science

Innovation, culture projet vs culture produit en Data Science

Catégories : Data Science, Gouvernance des données | Tags : DevOps, Agile, Scrum

La Data Science porte en elle le métier de demain. Elle est étroitement liée à la compréhension du métier, des comportements et de l’intelligence qu’on tirera des données existantes. Les enjeux sont à…

WORMS David

Par WORMS David

8 oct. 2019

Nvidia et l'IA embarqué

Nvidia et l'IA embarqué

Catégories : Data Science | Tags : Caffe, GPU, NVIDIA, IA, Deep Learning, Edge computing, Keras, PyTorch, TensorFlow

Depuis un peu plus de quatre ans, beaucoup de sociétés investissent dans l’intelligence artificielle et plus particulièrement dans le Deep Learning et le Edge Computing. Alors que la théorie avance à…

HATI Yliess

Par HATI Yliess

10 oct. 2018

Migration de cluster et de traitements entre Hadoop 2 et 3

Migration de cluster et de traitements entre Hadoop 2 et 3

Catégories : Big Data, Infrastructure | Tags : Shiro, Erasure Coding, Rolling Upgrade, HDFS, Spark, YARN, Docker

La migration de Hadoop 2 vers Hadoop 3 est un sujet brûlant. Comment mettre à niveau vos clusters, quelles fonctionnalités présentes dans la nouvelle version peuvent résoudre les problèmes actuels et…

BAKALIAN Lucas

Par BAKALIAN Lucas

25 juil. 2018

Apache Beam : un modèle de programmation unifié pour les pipelines de traitement de données

Apache Beam : un modèle de programmation unifié pour les pipelines de traitement de données

Catégories : Data Engineering, DataWorks Summit 2018 | Tags : Apex, Beam, Flink, Pipeline, Spark

Dans cet article, nous allons passer en revue les concepts, l’histoire et le futur d’Apache Beam, qui pourrait bien devenir le nouveau standard pour la définition des pipelines de traitement de…

LEONARD Gauthier

Par LEONARD Gauthier

24 mai 2018

Présentation de MapReduce

Présentation de MapReduce

Catégories : Big Data | Tags : Java, MapReduce, Big Data, JavaScript

Les systèmes d’information ont de plus en plus de données à stocker et à traiter. Des entreprises comme Google, Facebook, Twitter mais encore bien d’autre stockent des quantités d’information…

WORMS David

Par WORMS David

26 juin 2010

Canada - Maroc - France

Nous sommes une équipe passionnée par l'Open Source, le Big Data et les technologies associées telles que le Cloud, le Data Engineering, la Data Science le DevOps…

Nous fournissons à nos clients un savoir faire reconnu sur la manière d'utiliser les technologies pour convertir leurs cas d'usage en projets exploités en production, sur la façon de réduire les coûts et d'accélérer les livraisons de nouvelles fonctionnalités.

Si vous appréciez la qualité de nos publications, nous vous invitons à nous contacter en vue de coopérer ensemble.

Support Ukrain