Thomas Joos ♥ BigData-Insider

Thomas Joos

Freiberuflicher Autor und Journalist

Thomas Joos ist ein deutscher IT-Experte, Autor und freiberuflicher Journalist mit über 30 Jahren Berufserfahrung. Nach seinem Abitur und einem Informatikstudium arbeitete er als IT-Administrator und IT-Leiter, bevor er sich frühzeitig als selbstständiger Consultant etablierte. Heute konzentriert er sich hauptsächlich auf das Schreiben und hat über 100 Fachbücher sowie mehrere tausend Fachartikel verfasst.

Seine Expertise umfasst Bereiche wie Microsoft-Produkte, Netzwerksicherheit, Cloud-Technologien (Microsoft Azure, Microsoft 365, Amazon Web Services), Virtualisierung mit vSphere, Big Data, Unternehmensanwendungen, SAP, Datenanalyse, Blockchain, Security und Künstliche Intelligenz. Er arbeitet eng mit verschiedenen Unternehmen im IT-Bereich zusammen, bleibt dabei jedoch kritisch und unabhängig. Neben Büchern für Microsoft Press schreibt er auch für andere Verlage und zahlreiche IT-Fachzeitschriften und -Portale. Zudem ist er für die Deutsche Presse-Agentur (dpa) tätig.

Joos erstellt auch Unternehmens-interne Texte für Firmen wie Microsoft, Dell, IBM und HPE. Seine Leidenschaft für IT-Themen und das Schreiben spiegelt sich in seiner Arbeit wider, die er mit großer Begeisterung ausübt.

Artikel des Autors

Vor allem in der Wissenschaft kommt Atlas.ti zum Einsatz – für Analysen im Bereich Medizin, Kriminologie, Wirtschaft oder anderen Bereichen, in den große Datenmengen anfallen. (Bild: T. Joos)
Große Datenmengen qualitativ analysieren

Atlas.ti 22 – All-in-One-Analysewerkzeug in neuer Version

Mit Atlas.ti können Analysten und Datenwissenschaftler sehr große Mengen an strukturierten oder unstrukturierten Daten hochprofessionell qualitativ analysieren. Vor allem Wissenschaftler nutzen das Tool für ihre Analysen im Bereich Medizin, Kriminologie, Wirtschaft oder anderen Bereichen, in den große Datenmengen anfallen. Auch in sozialen Wissenschaften kommt das Tool häufig zum Einsatz.

Weiterlesen
Apache Beam kann als Programmiermodell für die verteilte Datenverarbeitung bezeichnet werden. Das Modell ist dazu in der Lage, über APIs Datentypen und Data Frames zu verarbeiten. (gemeinfrei)
Parallel Computing Framework

Das leistet Apache Beam

Apache Beam ermöglicht als Parallel Computing Framework das Verarbeiten von nahezu unbegrenzten Datenmengen. Die Open Source Software bietet über verschiedene SDKs das Definieren von Batch-Pipelines oder Pipelines für Streaming-Data-Processing und unterstützt Hadoop, Spark und andere Engines.

Weiterlesen
Amazon Web Services (AWS) bietet verwaltete Dienste im Pay-as-you-go-Modell. Es müssen also nur die Dienstleistungen bezahlt werden, die Unternehmen auch verbrauchen. (gemeinfrei)
Überblick

Datenanalysen mit AWS

AWS ist die Cloud-Infrastruktur mit dem größten Marktanteil. Das liegt unter anderem auch daran, dass es in der Cloudplattform umfassende Möglichkeiten zur Analyse von Daten gibt. Wir geben in diesem Beitrag einen Überblick.

Weiterlesen
Grok 3

Was die KI von xAI technisch wirklich kann

Grok 3 steht derzeit kostenfrei für Nutzer von X zur Verfügung, allerdings nur vorübergehend. Elon Musk kündigt bereits an, dass der Zugriff später auf zahlende Abonnenten beschränkt werde. Schon jetzt unterscheidet xAI zwischen freien Nutzern, Premium+ und der neuen Stufe „SuperGrok“. Wer nicht zahlt, darf alle zwei Stunden zehn Textanfragen und zehn Bildgenerierungen absenden. Die Bildanalyse ist auf drei Durchgänge pro Tag beschränkt. Eine erweiterte Nutzung erfordert mindestens den Premium+-Zugang.

Weiterlesen
Auto-GPT und GPT4All

So lassen sich Aufgaben mit KI automatisieren

Mit Auto-GPT können Anwender KI-Aufgaben vollständig automatisieren. Dazu kann die kostenlose Open Source Software selbstständig Prompts erstellen und auch komplexe Aufgaben durch Stapelverarbeitung und Python-Skripte automatisch abwickeln. GPT4All ermöglicht wiederum den Betrieb einer eigenen KI ohne Internetanbindung.

Weiterlesen
Apache Beam kann als Programmiermodell für die verteilte Datenverarbeitung bezeichnet werden. Das Modell ist dazu in der Lage, über APIs Datentypen und Data Frames zu verarbeiten. (gemeinfrei)
Parallel Computing Framework

Das leistet Apache Beam

Apache Beam ermöglicht als Parallel Computing Framework das Verarbeiten von nahezu unbegrenzten Datenmengen. Die Open Source Software bietet über verschiedene SDKs das Definieren von Batch-Pipelines oder Pipelines für Streaming-Data-Processing und unterstützt Hadoop, Spark und andere Engines.

Weiterlesen
Amazon Web Services (AWS) bietet verwaltete Dienste im Pay-as-you-go-Modell. Es müssen also nur die Dienstleistungen bezahlt werden, die Unternehmen auch verbrauchen. (gemeinfrei)
Überblick

Datenanalysen mit AWS

AWS ist die Cloud-Infrastruktur mit dem größten Marktanteil. Das liegt unter anderem auch daran, dass es in der Cloudplattform umfassende Möglichkeiten zur Analyse von Daten gibt. Wir geben in diesem Beitrag einen Überblick.

Weiterlesen