Definition

Was ist TCO (Total Cost of Ownership)?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Total Cost of Ownership, abgekürzt TCO, ist eine ganzheitliche Kostenbetrachtung von Produkten, Gütern oder Services, die nicht nur die Anschaffungskosten, sondern auch laufende direkte und indirekt Kosten über den kompletten Lebenszyklus hinweg berücksichtigt. Die Kostenbetrachtung bietet wichtige Hilfestellungen zur Beantwortung betriebswirtschaftlicher Fragestellungen wie Investitionsentscheidungen.

Die Abkürzung TCO steht für Total Cost of Ownership. Es handelt sich um ein Kostenbetrachtungsverfahren für gekaufte Produkte, Güter oder Services, das nicht nur die Anschaffungskosten, sondern die gesamten Kosten der Investition inklusive laufender indirekter oder direkter Kosten, die mit der Nutzung verbunden sind, zu berücksichtigen versucht. Erste Betrachtungen dieses Themas sind bereits seit den 1920er-Jahren bekannt.

Geprägt hat den Begriff Bill Kirwin im Jahr 1987, als er im Auftrag von Microsoft für die Gartner Group ein Verfahren entwickelte, das die durch IT-Investitionen verursachten Belastungen ermitteln sollte. Insbesondere im IT-Umfeld stellen die Anschaffungskosten für Hard- und Software oft nur einen Bruchteil der nachfolgenden Betriebs- und Nutzungskosten dar. Mittlerweile existieren verschiedene TCO-Modelle zur Bestimmung der Gesamtkosten. Hilfreich sind die TCO-Betrachtungen zur Beantwortung betriebswirtschaftlicher Fragestellungen wie Investitionsentscheidungen, Auswahlentscheidungen für Lieferanten oder Rentabilitätsberechnungen.

Unterscheidung zwischen direkten und indirekten Kosten

Es existiert kein einheitliches Modell für die TCO-Berechnung. Die verschiedenen Modelle und Konzepte verfolgen oft einen Best-Practice-Ansatz, bezogen auf den jeweiligen Anwendungsbereich. Alle Modelle unterscheiden jedoch grundsätzlich zwischen sogenannten direkten und indirekten Kosten.

Direkte Kosten fallen für gewöhnlich bei der Beschaffung, Nutzung und der Betreuung der Produkte oder Güter an. Typisch für diese Kostenart ist, dass sie gut budgetierbar ist und sich direkt dem betrachteten Produkt zuordnen lässt. Zu diesen Kosten gehören beispielsweise Anschaffungskosten und Abschreibungen für Soft- und Hardware, Lizenzgebühren, Kosten für Wartungsverträge, eingekaufte Dienstleistungen, Trainingskosten für IT-Personal oder Anwender und Arbeitskosten der betreuenden Mitarbeiter.

Indirekte Kosten sind nicht unmittelbar einem bestimmten Produkt zuzuordnen. Sie können beispielsweise durch die Störung von Arbeitsabläufen oder die unproduktive Nutzung durch Anwender entstehen. Die Messbarkeit dieser indirekten Kosten ist relativ schwierig. Sie können einen hohen Anteil der Gesamtkosten betragen. Beispiele für indirekte Kosten sind Arbeitsausfälle durch Selbsthilfe oder Unterstützung ungeübter Anwender, Produktionsausfälle durch Nichtverfügbarkeit von Systemen oder allgemeine Aufwände für das Management von Daten in Umfeld des betrachteten Produkts.

Sinnvolle TCO-Anwendungsbereiche für betriebswirtschaftliche Fragestellungen

Die Kostenbetrachtung Total Cost of Ownership ist für die Beantwortung vieler betriebswirtschaftlicher Fragestellungen und Entscheidungen in einem Unternehmen hilfreich. TCO kommt beispielsweise zum Einsatz bei:

  • Kauf- und Investitionsentscheidungen
  • Vergleich von Lösungen
  • Auswahl eines Lieferanten
  • Rentabilitätsberechnungen
  • Rationalisierungsentscheidungen
  • Kostenmanagement
  • Entscheidung für Kauf-, Verleih- oder Mietmodelle

Was es im IT-Umfeld bei TCO-Betrachtungen zu berücksichtigen gilt

Die Kostenbetrachtungsmethode Total Cost of Ownership wurde von Gartner speziell für das IT-Umfeld entwickelt. Gerade in der Informations- und Kommunikationstechnik ist es wichtig, alle entstehenden Kosten für den Betrieb einer Lösung zu betrachten, da die Anschaffungskosten für Hard- und Software oft nur einen Bruchteil der Gesamtkosten ausmachen. So kommt beispielsweise oft Open Source Software zum Einsatz, die kostenfrei erhältlich ist, aber Folgekosten durch die Betreuung und Anpassung verursacht. Auch die Hardwarekosten für Server sind im Vergleich zu den Gesamtkosten für den Betrieb eines Services verschwindend gering. TCO erhebt den Anspruch, alle Kosten zu erfassen, die durch die Anschaffung, den Betrieb und die Nutzung von Hardware, Software oder kompletter Systeme und ihrer Infrastruktur entstehen.

Die Kosten für die Beschaffung und Implementierung sowie die hierfür notwendigen Beratungs- und Betreuungsleistungen sind in der Regel recht einfach zu bestimmen. Hinzu kommen weitere direkt und indirekte Kosten, die es ebenfalls zu berücksichtigen gilt. Typische Kostenblöcke im IT-Umfeld sind beispielsweise:

  • Anschaffungskosten der Hardware
  • Anschaffungskosten der Software
  • Lizenzkosten für Hard- und Software
  • Energiekosten für den Betrieb der Hardware
  • Raumkosten für das Rechenzentrum
  • Implementierungskosten der Systeme
  • Aufwände für die Netzwerkintegration
  • Kosten für Internetzugänge
  • Aufwände für die Implementierung der Security
  • Bereitstellungs- und Managementkosten für die benötigten Daten
  • osten für individuelle Entwicklungen oder Änderungen
  • Kosten für das Asset Management der verschiedenen Komponenten
  • Wartungsverträge
  • Supportkosten für Hard- und Software
  • Kosten für das Systemmanagement
  • Versicherungskosten
  • Reparaturkosten
  • Schulungskosten
  • Kosten für Arbeitsausfälle durch individuelle Einarbeitung, Selbsthilfe und Selbsttraining
  • durch Störungen verursachte Produktionsausfälle

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Darauf kommt es bei der Wahl der richtigen BI-Lösung an

Kommentar von Robert Schmitz, Qlik

Darauf kommt es bei der Wahl der richtigen BI-Lösung an

Es spricht viel für die datengetriebene Neuaufstellung von Geschäftsprozessen, die Vertiefung von Kunden- und Lieferantenbeziehungen auf der Basis valider Datenauswertungen oder für ein ausgewogenes Risiko/Rendite-Verhältnis, das sich an profunden Analytics-Ergebnissen statt am Bauchgefühl orientiert. Damit Analytics-Projekte auch wirklich verwertbare Entscheidungsgrundlagen liefern, gilt es, die passende Business-Intelligence-Lösung für die gesetzten Ziele zu finden. lesen

Oracle befindet „Kunden-Lock-in“ für notwendig

Nachbericht Oracle OpenWorld 2019

Oracle befindet „Kunden-Lock-in“ für notwendig

Die kürzlich vorgestellte Autonomous Datenbank ist an die neue Cloud-Infrastruktur der Oracle Corp. („Gen 2“) gekoppelt. Kritiker des Datenbankriesen sehen darin den Versuch, die Anwender an die hauseigenen Systeme zu fesseln. Oracle kontert damit, dass die Datenbanktechnik für die „Exadata“-Maschinen optimiert sei und in anderen Cloud-Umgebungen ihre Vorteile einbüße. lesen

Alexa spricht Splunk

Nachbericht Splunk .conf 2018

Alexa spricht Splunk

Splunk, ein Spezialist für die Analyse von Maschinendaten, adressiert eine breitere Nutzerschicht, nämlich die Mitarbeiter in den Fachbereichen. Zahlreiche neue Funktionen, wie etwa mobile Apps und Sprachausgabe, sollen ihnen das Leben erleichtern. Neben zahlreichen Neuerungen in den Kernprodukten stellte Splunk seine eigene IIoT-Plattform für Industrie 4.0 vor. lesen

Mehr Security, schnellere Analyse und günstige TCO

MapR 6.1 soll Big Data unternehmenstauglicher machen

Mehr Security, schnellere Analyse und günstige TCO

Ein neues „Major Release“ seiner Datenplattform MapR hat der gleichnamige Softwareanbieter aus Santa Clara, Kalifornien, für den kommenden Herbst in Aussicht gestellt: MapR 6.1 ist unter anderem dafür ausgelegt, die Datenanalyse für KI-Anwendungen zu beschleunigen und die Betriebskosten zu senken. lesen

Wie die Digitalisierung 2018 den Handel beeinflusst

IDC Retail Predictions vorgestellt

Wie die Digitalisierung 2018 den Handel beeinflusst

Schon jetzt sind Technologien für neue Erfahrungen und Einkaufserlebnisse im Einzelhandel keine Science-Fiction mehr. Händler tun gut daran, sich 2018 auf die moderne Technik und die entsprechenden Kundenbedürfnisse einzustellen. lesen

Provider steigern Absatz mit Big Data

Netscout liefert Trafficanalyse für Kommunikationsdienstleister

Provider steigern Absatz mit Big Data

Per nGenius Business Analytics sollen Kommunikationsdienstleister ihren Traffic bequem analysieren, um rasch auf wechselnde Kundenbedürfnisse und neue Absatzmöglichkeiten zu reagieren. Dabei setzt Anbieter Netscout auf eine eigene Smart-Data-Technologie. lesen

Cisco bringt neue Server-Linie für Echtzeit-Datenverarbeitung

Hybridbetrieb mit Cisco One Enterprise

Cisco bringt neue Server-Linie für Echtzeit-Datenverarbeitung

Cisco erweitert das „Unified Computing System“ (UCS) um eine Storage-optimierte Server-Linie. Der erste Server dieser „UCS S“-Serie, „UCS S3260“, soll speziell die Anforderungen datenintensiver Workloads wie Big Data, Streaming und Collaboration erfüllen sowie softwaredefinierte Speicher-, Objektspeicher- und Datenschutzanwendungen bereitstellen. lesen

Künstliche Intelligenz für Systemanalyse und IT-Security

Nachbericht Splunk .conf2016

Künstliche Intelligenz für Systemanalyse und IT-Security

Mit Algorithmen aus dem Machine Learning will das auf Operational Intelligence und IT-Security spezialisierte US-Unternehmen Splunk seine Lösungen Enterprise 6.5, Splunk Cloud, ITSI 2.4 und Enterprise Security 4.5 intelligenter und nützlicher machen. lesen

Pascal-GPUs beschleunigen Deep-Learning-Inferenz

Nvidia-Komponenten für Künstliche Intelligenz

Pascal-GPUs beschleunigen Deep-Learning-Inferenz

KI-Dienste werden komplexer und benötigen bis zu zehnmal mehr Rechenleistung, als es neurale Netzwerke noch vor einen Jahr leisten konnten. Nvidia bietet in diesem Zusammenhang Erweiterungen seiner auf der Pascal-Architektur basierenden Deep-Learning-Plattform an. Insbesondere die GPUs „Tesla P4“ und „Tesla P40“ sowie neue Software erlauben, die Inferencing-Workloads für Artificial Intelligence zu beschleunigen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45845262 / Definitionen)