Definition

Was ist R?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

R ist eine freie Programmiersprache, die speziell für statistische Berechnungen und Visualisierungen von Daten konzipiert ist. Sie ist eine der führenden Lösungen für die statistische Datenanalyse und kann für das Data Mining oder Predictive Analytics eingesetzt werden.

Die Programmiersprache R wurde 1992 an der Universität Auckland von Ross Ihaka und Robert Gentleman entwickelt. Sie ist speziell für statistische Berechnungen und die Visualisierung von Daten konzipiert. R orientiert sich an der Programmiersprache S und ist ihr sehr ähnlich. Es handelt sich bei R jedoch um eine freie Implementierung. Viele unter S geschriebene Programme laufen auch unter R. Der Name der Sprache geht auf die Anfangsbuchstaben der Vornamen der Entwickler zurück.

In der Standarddistribution wird R mit Interpreter und Kommandozeilenumgebung mit einfachen grafischen Elementen geliefert. R steht für die wichtigsten Plattformen zur Verfügung. Im Vergleich zu kommerziellen Softwarepaketen zeichnet sich R vor allem durch die Flexibilität aus. In Sachen Qualität, Funktionen und Aktualität erreicht die Programmiersprache einen hohen Level. Im Umfeld der Analyse und Visualisierung von Daten, wie sie für das Data Mining und Predictive Analytics zum Einsatz kommen, ist R eine weltweit etablierte und sehr beliebte Lösung. Die Sprache hat sich zu einer Art Standardsprache für statistische Problemstellungen in der Wissenschaft und Wirtschaft entwickelt.

2018 erschien die derzeit aktuellste Version 3.4.4. In der Standardbibliothek von R sind 29 Pakete enthalten. Die wichtigsten Pakete werden bei jedem Programmstart geladen. Mit einer Vielzahl an zusätzlichen Paketen lässt sich der Funktionsumfang der Programmiersprache erweitern.

Wichtigste Merkmale und Syntax der Programmiersprache R

Bei R handelt es sich um eine Interpretersprache, die nicht kompiliert werden muss. Eingaben werden in der Kommandozeilenoberfläche direkt ausgeführt. Programme können in Skripten ausgeführt werden. Die Sprache R umfasst unter anderem folgende Funktionen:

  • Verwaltung von Dateien
  • Erstellen von Datenstrukturen
  • Prüfen und Anpassen von Datenstrukturen
  • Management von Daten
  • Bearbeitung und Formatierung von Zeichenketten
  • bedingte Anweisungen, Schleifen und Verzweigungen
  • Funktionen der deskriptiven Statistik
  • Analysefunktionen
  • Funktionen höherer Ordnungen wie die MapReduce-Familien
  • statistische Tests
  • mathematische Optionen, Mengenoperationen, Matrixoperationen

Die Programmiersprache besitzt Eigenschaften, die für dynamische Sprachen typisch sind. Text lässt sich dynamisch als Code auswerten und Variablen können flexibel die Struktur verändern. Die in S enthaltenen Klassen und Multimethoden für Ad-hoc-Polymorphie sind ebenfalls in R implementiert.

R speichert Daten spaltenorientiert. Eingelesene Daten sind direkt im Hauptspeicher abgelegt. Zur Verringerung des Speicherbedarfs kommen Techniken wie Garbage Collection oder Lazy Loading zum Einsatz. Die Syntax ist case sensitive und unterscheidet Klein- und Großschreibung. Objektnamen können aus Punkten, Zeichen und Unterstrichen bestehen. Beim Funktionsaufruf steht nach dem Funktionsnamen eine öffnende runde Klammer. Abgeschlossen wird die Funktion durch die schließende runde Klammer. Innerhalb der Klammern lassen sich der Funktion die Argumente übergeben. Die Trennung erfolgt durch Kommas. Über geschweifte Klammern werden die Programmierblöcke festgelegt. Nach einem Doppelkreuz (#) folgt ein Kommentartext. Leerraum oder Einrückungen sind für die Ausführung des Codes unter R ohne Einfluss. Für die Kontrollstrukturen stehen bedingte Anweisungen wie if oder else und Schleifen wie for oder while zur Verfügung. Sprunganweisungen mit goto existieren in R nicht.

Einfache Datenstrukturen in R sind durch Vektoren spezifiziert. Ein Vektor besitzt mit Typ, Länge und Attribut drei Eigenschaften. Darüber hinaus existieren ein- oder zweidimensionale Matrizen und beliebig-dimensionale Arrays.

Die Einsatzmöglichkeiten und Vorteile der Programmiersprache R

R ist eine der führenden Lösungen für die statistische Datenanalyse. Daten lassen sich mit der Sprache sehr flexibel auswerten und visualisieren. Dadurch ist R ideal geeignet für Aufgaben wie Predictive Analytics oder Data Mining. Sowohl wissenschaftliche Organisationen als auch große Unternehmen wie Oracle oder Microsoft verwenden die freie Programmiersprache. R kann problemlos in alle Ebenen der Analyse und Präsentation von Daten integriert werden. Viele namhafte Hersteller bieten geeignete Schnittstellen und Integrationsmöglichkeiten. Dank der Flexibilität von R ist der gleiche Code sowohl für kleinere Datenanalysen als auch für umfangreiches Data Mining im Big-Data-Umfeld auf Hadoop-Clustern geeignet.

Die Plattformunabhängigkeit sorgt dafür, dass R in verschiedenste IT-Strukturen leicht integrierbar und universell nutzbar ist. Im Gegensatz zu anderen Lösungen für die Analyse und Visualisierung von Daten ist R Open Source. Es fallen keine Lizenzkosten an, auch nicht für den Großteil der verfügbaren Erweiterungspakete. An vielen Universitäten weltweit wird mit R gearbeitet. Aufgrund des Open-Source-Modells von R ist die Sprache sehr beliebt. Daher stehen viele gut ausgebildete Analyse-Experten zur Verfügung. Die wichtigen Weiterentwicklungen finden im Bereich der Wissenschaft und Universitäten statt. Ein Großteil der Entwickler der Programmiersprache sind Professoren. R bietet einen hohen Funktionsumfang, ist professionell und aktuell.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Digitalisierung … so ein MIST!

Kommentar - Erst analysieren, dann transformieren

Digitalisierung … so ein MIST!

Um die digitale Transformation erfolgreich zu bewältigen und deren Vorteile bestmöglich auszuschöpfen, ist es notwendig, zunächst den Status quo zu reflektieren. Für die Analyse dieser Ausgangsgrundlage existiert eine Methodik mit dem klangvollen Namen „MIST“. lesen

Die Cloud-Migration von Analytics

Wieso, weshalb, warum - und wie?

Die Cloud-Migration von Analytics

Immer mehr Geschäftsanwendungen wandern in die Cloud. Die Vorteile liegen auf der Hand: Agilität, frei skalierbare Leistung und Kosteneffizienz. Viele Cloud-Migrationen scheitern jedoch daran, das volle Potenzial dieser Bereitstellungsform zu erschließen. Um Performance und Mehrwert von Anwendungen in der Cloud zu maximieren, müssen Unternehmen alle Optionen abwägen und den für die konkrete Situation passenden Ansatz finden. lesen

Databricks will Data Scientists von Routinearbeit entlasten

Apache-Spark-Projekt aus der wirtschaftlichen Perspektive

Databricks will Data Scientists von Routinearbeit entlasten

Welchen Sinn haben die Daten in den Unternehmen, wenn man sie nicht für Machine Learning nutzt? Diese rhetorische Frage stellt David Wyatt, Vice President Europe von Databricks. Als Haupttreiber des Apache-Spark-Projekts stellt das Unternehmen eine Cloud-Plattform bereit, die Data Engineers und Data Scientist zusammenbringen soll. Diese „Unified Analytics Platform“ wird derzeit um zwei Komponenten erweitert: das Projekt „Delta Lake“ zur Aufbereitung von Data Lakes und den Machine-Learning-Katalog „ML Flow“. lesen

So gelingt der Einstieg in die Data Science

Kommentar von Benjamin Aunkofer, Datanomiq

So gelingt der Einstieg in die Data Science

Big Data, Data Science und Machine Learning sind die Buzzwords dieser Jahre und Daten sind der Rohstoff für ... Lassen wir das! Wer bei BigData-Insider liest, der weiß längst, welche Rolle Daten als Rohstoff und Kapital einnehmen und wie gefragt gerade Datenexperten sind. In diesem Artikel wollen wir den Job des Data Scientists mal strukturiert durchleuchten und dann Chancen für einen Quereinstieg ausloten. Auch auf den Data Engineer gehen wir dabei ein. lesen

Was in Zukunft wichtig wird – Trends der Datenanalyse

Kommentar von Tom Becker, Alteryx

Was in Zukunft wichtig wird – Trends der Datenanalyse

Mittlerweile ist jedem klar geworden – Datenanalyse ist wichtig wie nie. Viele Unternehmen haben bereits begonnen, finanzielle und strategische Vorteile aus datenbasierten Entscheidungen zu ziehen. Kann man es sich also überhaupt noch leisten, zu warten? Welche Veränderungen sind bereits absehbar und was sind die großen Trends? lesen

Deployment von Machine Learning in die Cloud

Cloud-Storage, Entwicklungsprozesse, Auslieferung

Deployment von Machine Learning in die Cloud

Während vor wenigen Jahren Data Science in Unternehmen vor allem noch experimental war, müssen heute Entwicklungszeiten verkürzt und Vorhersagemodelle viel schneller produktiv gebracht werden. Cloud-Services wie von Google, Amazon und Microsoft helfen dabei. lesen

Zentralisiertes Datenmanagement schafft Mehrwert für Kunden

Kommentar von Dr. Ramin Beravat, TeamBank AG Nürnberg

Zentralisiertes Datenmanagement schafft Mehrwert für Kunden

Ohne Daten keine Zukunft. Das weiß auch die TeamBank. Aus diesem Grund wurden alle Weichen in Richtung digitale Zukunft gestellt. Das sogenannte „Öl des 21. Jahrhunderts“ wird in großen Mengen gesammelt und mit einer komplexen Daten-Pipeline und ebenso komplexen Algorithmen gesteuert und ausgewertet. Dieser Artikel gibt einen Überblick, wie die TeamBank mittels Machine Learning und Analytics aus Daten Mehrwert für Kunden schafft und weshalb ein zentrales Datenmanagement so wichtig ist. lesen

SAS fokussiert sich auf IoT, Cloud-Solutions und KI

Nachbericht SAS Forum 2019 Bonn

SAS fokussiert sich auf IoT, Cloud-Solutions und KI

Auf dem diesjährigen SAS Forum hat der Analytics-Spezialist seine Produkte „SAS Intelligent Decisioning“ und „SAS Analytics for IoT“ vorgestellt sowie „SAS Demand Planning“ angekündigt. Die neue Plattform Viya werde komplett im Kubernetes-Container laufen. Daher wird es künftig neue Preismodelle geben. lesen

Cubeware baut Solutions Platform weiter aus

Funktionsmodul ergänzt

Cubeware baut Solutions Platform weiter aus

Mit Cubeware Advance erhält die Cubeware Solutions Platform Zuwachs: Das Funktionsmodul ermöglicht Advanced und Predictive Analytics auf Basis der IBM-Software SPSS Modeler. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45261852 / Definitionen)