Data Science and Engineering (DSE)

Unsere Forschungsgruppe «Data Science and Engineering» (DSE) entwirft und realisiert Anwendungen zur Erfassung, Integration, Verwaltung, Suche und Analyse von Daten.

Unsere Forschungsgruppe

Wir entwickeln Data-Science-Anwendungen für strukturierte und unstrukturierte Daten mit Hilfe moderner Methoden (Mathematik, Statistik, maschinelles Lernen), Prozessen (Scrum, Design Thinking) und Technologien (Spark, Tensorflow, R). Unsere Expertise deckt verschiedene Anwendungsbereiche ab (CRM, Verwaltung, GIS, …).

Leistungsangebot

In Kooperation mit nationalen und internationalen Partnern aus Industrie, Verwaltung und Hochschulen führen wir anwendungsnahe Forschungsprojekte im Umfeld von datenorientierten Anwendungen durch:

  • Konzipierung und Architektur-Design
  • Beratung und Gutachten zu Technologien und Business-Cases
  • Modellierung und Beratung zu Geschäftsprozessen
  • Entwurf, Entwicklung und Evaluierung von Datenanalysemodellen
  • prototypische Umsetzung von Anwendungen
  • Durchführung von individuellen Schulungen

Kompetenzen

Modellierung und Analyse von strukturierten Daten

Die Speicherung und Verwaltung von strukturierten Daten in einer SQL-Datenbank bedarf eines sorgfältig entworfenen Datenmodells, da nachträgliche Änderungen meist nur mit hohem Aufwand möglich sind. Mit unserer langjährigen Erfahrung beraten wir Sie bei der Modellierung. Des Weiteren unterstützen wir Sie bei der Entwicklung komplexer Anfragen und Auswertungen.

Analyse von unstrukturierten Daten (Textanalyse, NLP)

Wir entwickeln Lösungen zur automatisierten Analyse von Texten (Web, Social Media, Mails, Dokumente). So lassen sich gezielt Informationen gewinnen („Welche Produkte werden genannt?“), Texte können klassifiziert werden („Ist die Mail ein Auftrag oder eine Support-Anfrage?“) oder miteinander verglichen werden („Welche anderen Mails beschreiben dasselbe Problem?“). 

Linked Data, Open Data und Semantic Web

Mit Linked Data oder Ontologien lässt sich Wissen formalisieren und auswerten, beispielsweise als Grundlage für Textanalyse, semantische Suche oder Expertensysteme (Entscheidungsunterstützung). Solche (und andere) Daten sind auch vermehrt öffentlich verfügbar (Open Data).

Agile Entwicklung von Prototypen

Bei der Entwicklung von neuen Anwendungen setzen wir auf agile Methoden wie Design Thinking und Scrum. Dadurch lassen sich effizient wichtige Funktionalitäten entwerfen, Alternativen ausprobieren und aussagekräftige Prototypen entwickeln.

Geographische Informationssysteme (GIS)

Die Analyse und Visualisierung von Daten im Raum generieren neue Informationen und eröffnen intuitiv zugängliche Einsichten auf Fragestellungen mit Raumbezug. Wir unterstützen die Konzeption und Durchführung räumlicher Datenanalysen sowie den Aufbau zugehöriger Datenbasen und geographischer Informationssysteme auf Basis von Esri ArcGIS oder Open Source GIS Lösungen.

Maschinelles Lernen

Ausgehend von Business Value und Use Case entwickeln wir mit Hilfe von maschinellem Lernen praxisorientierte Lösungen zur Analyse von Daten und zur Steuerung von intelligenten Applikationen. Dabei greifen wir auf unsere breiten Erfahrungen mit verschiedenen Industrien (Legal, Banken, Gesundheitswesen, öffentliche Verwaltung), vielfältigen Datenquellen (relationale Daten, Dokumente, Graphendaten), sowie modernsten Verfahren (Deep Learning, Transfer Learning) und Technologien (TensorFlow, Apache Spark) zurück.

Augmented Intelligence

Um innovative Services und Produkte anbieten zu können, wird mehr und mehr auf Machine Learning und die automatisierte Analyse von Daten gesetzt. Wir bieten Know-How in diversen Bereichen der künstlichen Intelligenz und untersuchen die Frage, wie solche Technologien in bestehende Workflows eingebettet werden können. Wie können Menschen und künstliche Intelligenz effizient zusammenarbeiten? Wie können sich ihre jeweiligen Fähigkeiten ergänzen?

Energieeffiziente und skalierbare Cloud- und Container-Plattformen

Um smarte Applikationen zu betreiben braucht es skalierbare und robuste Plattformen. Es ist unumgänglich, die Prozesse um das Deployment herum zu automatisieren und intelligente Plattformen zwischen dem Rechenzentrum, der Private und der Public Cloud zu betreiben. Im Rahmen von Green IT arbeiten wir ausserdem an Modellen, den Energieverbrauch des Rechenzentrums messbar zu machen und zu optimieren.

Fairness und digitale Ethik

Die digitale Ethik insbesondere mit Bezug auf Machine Learning wird immer relevanter. Wenn die Trainingsdaten ein Bias enthalten, kann dies problematische Auswirkungen haben und die Entscheidungen des daraus resultierenden Models können unfair sein. Wir arbeiten an Methoden, die Fairness insbesondere in Textdaten messbar zu machen und somit einen Nutzen der Digitalisierung für soziale und gesellschaftliche Problematiken diverser Art zu erzielen.

Kontakt

Kontaktieren Sie uns oder treffen Sie unsere Fachexpertinnen und Fachexperten an diversen Veranstaltungen im direkten Gespräch. Aus einer Zusammenarbeit resultiert ein Gewinn für alle Beteiligten: für Ihr Unternehmen, die Gesellschaft sowie die Fachhochschule.