OpenRefine

July 6, 2023

(Updated: Aug 3, 2023)

Allgemeine Beschreibung

OpenRefine ist ein Open-Source-Tool zur Datenbereinigung und Datentransformation, das ursprünglich als Google Refine bekannt war. Es bietet eine anwenderfreundliche grafische Benutzeroberfläche, mit der Daten in verschiedenen Formaten analysiert, bereinigt und strukturiert werden können.

OpenRefine eignet sich besonders gut für die Arbeit mit großen und unstrukturierten Datensätzen, wobei es das Filtern, Sortieren und Gruppieren von Daten sowie das Erkennen und Beheben von Fehlern und Unregelmäßigkeiten ermöglicht. Das Tool unterstützt außerdem auch die Zusammenführung von Datensätzen aus verschiedenen Quellen und das Aufteilen von Zellen, um Daten besser zu organisieren.

In Hinblick auf digitale Editionen ist ein Vorteil von OpenRefine, dass es nicht nur die Datenbereinigung, - transformation und -organisation großer unstrukturierter Datenmengen erleichtert, sondern vor allem auch Funktionen zur Normalisierung von Daten sowie zur Konsolidierung von Informationen bietet. Beim Export der Daten muss man jedoch auf die Möglichkeit, direkt eine XML-Datei herunterzuladen, verzichten und auch komplexere Datentransformationen beim Export - wie beispielweise das Gruppieren von Daten - werden nicht unterstützt.

Anwendungsbereiche

  • Bereinigung unstrukturierter und fehlerhafter Daten
  • Zusammenführung und Konsolidierung von Daten aus verschiedenen Quellen
  • Normalisierung von bestehenden Datenbeständen

Funktionsübersicht

  • Datenbereinigung bei unstrukturierten und fehlerhaften Daten (Dubletten, Tippfehler, Inkonsistenzen und andere Unregelmäßigkeiten)
  • Datennormalisierung
  • Datentransformation (z. B. Excel/CSV-Input zu JSON oder XML-Struktur)
  • Datenzusammenführung, wenn verschiedene Quellen vorhanden sind
  • Möglichkeit der Strukturierung von Metadaten
  • Automatisierung von wiederholten Datenbereinigungs- und Transformationsaufgaben durch die Erstellung von Skripten oder Aktionen für bestimmte Aufgaben

Voraussetzungen

Jedes Tool kann einerseits bestimmte Vorkenntnisse der Benutzer:innen voraussetzen und andererseits auch hinsichtlich der Software-Umgebung gewisse Anforderungen stellen.

Erforderliche Kenntnisse

Benötigte Software

  • Webbrowser

Tool-Kompatibilität

IIIF Transkribus FromThePage ediarum FairCopy ba[sic?] TEI Publisher ediarum.WEB
OpenRefine 🦄

Kostenübersicht

  • kostenlos

Möglichkeiten & Grenzen

Da jedes Projekt unterschiedliche Anforderungen mit sich bringt, sollen nachfolgend mögliche Vor- und Nachteile des Tools aufgelistet werden, die während der Durchführung des jeweiligen Beispielprojekts festgestellt wurden.

Stärken

  • Benutzerfreundliche Bearbeitungsoberfläche und Wahrung der Datensicherheit durch die lokale Bearbeitung und Speicherung
  • Bereinigung von unstrukturierten und fehlerhaften Daten (Dubletten, Tippfehler, Inkonsistenzen) und damit Überprüfung der Datenqualität (Qualitätssicherung)
  • Versionskontrolle durch die Möglichkeit, Arbeitsschritte wieder rückgängig zu machen oder bereits getätigte Schritte wiederherzustellen
  • Datenerweiterung und Normalisierung über Reconciliation-Services, die den Datenabgleich mit externen Datenbanken ermöglichen
  • Datentransformation in andere Formate oder Strukturen
  • Datenzusammenführung bei mehreren Quellen oder Versionen
  • Organisation und Strukturierung von Metadaten
  • Automatisierung von wiederholten Datenbereinigungs- und Transformationsaufgaben durch die Möglichkeit, den Änderungsverlauf zu exportieren und auf neue Daten anzuwenden

Herausforderungen & Probleme

  • Keine simultane Kollaborationsmöglichkeit, da OpenRefine für die lokale Verwendung konzipiert ist und nicht mehrere Personen gleichzeitig an einem Projekt arbeiten können (eine - aber bei einer Vielzahl von Projektmitarbeitenden relativ umständliche - Möglichkeit, mit anderen Personen zusammenzuarbeiten, besteht aber darin, Projekte inklusive der gespeicherten Bearbeitungsschritte zu exportieren und daraufhin an einem anderen Rechner zu importieren)
  • Teilweise mühsame Bedienung durch das Problem, dass OpenRefine bei der manuellen Zuordnung von passenden Wikidata-Einträgen nach jeder einzelnen Match-Bestätigung zum Start der Tabelle springt
  • Keine direkte Exportmöglichkeit in eine XML-Datei, wobei über den Templating-Export die Daten jedoch zumindest in einer XML-Struktur (als Plaintext-Datei) exportiert werden können
  • Komplexere Datentransformationen - wie beispielsweise das Gruppieren von Datensätzen anhand des Inhalts einer Zelle - sind beim Export nicht möglich, wodurch Redundanzen in den Daten auftreten können und eine Nachbearbeitung erforderlich sein kann

Einrichtung & Erste Schritte

Anhand unseres Beispielprojekts, das zum Ziel hat, Kochrezepte aus dem Mittelalter computergestützt zu analysieren und später über eine Forschungsplattform zur Verfügung zu stellen, soll nachfolgend ein möglicher Arbeitsablauf für die Normdaten-Anreicherung mit OpenRefine beschrieben werden. Die Manuskripte des Projektes wurden bereits mittels FromThePage transkribiert und mit ediarum wurden bereits erste Annotationen vorgenommen. In dieser Kurzanleitung erfolgt nun die Aufbereitung der Zutatenliste, die wir von einem Historiker im CSV-Format erhalten haben. Unser Ziel ist es, die Daten zu normalisieren und sie zusätzlich mit den Q-Nummern - auch QID genannt - von Wikidata-Einträgen anzureichern.

1. Installation

  • Unser erster Schritt besteht darin, uns die entsprechende Version für unser Betriebssystem von OpenRefine herunterzuladen. Nach dem Entpacken der ZIP-Datei führen wir openrefine.exe aus, wodruch sich OpenRefine direkt in unserem Browser öffnet.
    Startbildschirm von OpenRefine
    Startbildschirm von OpenRefine

2. Einrichtung des Projekts

  • Um ein Projekt erstellen zu können, werden wir aufgefordert, Daten zu importieren. Wir laden daher als erstes unsere EXCEL-Datei mit der Zutatenliste hoch.
    Upload der EXCEL-Datei
    Upload der EXCEL-Datei
  • Mit dem Button “Next” kommen wir in die darauffolgende Ansicht und können einige Einstellungen vornehmen, bevor unser Projekt erstellt wird.
    Projekteinstellungen beim Import
    Projekteinstellungen beim Import

    → Für unser Projekt haben wir an den vorausgewählten Einstellungen nichts geändert und nur einen Projektnamen gewählt, bevor wir mit “Create project” fortgefahren sind.

  • Unsere Projektansicht sieht letztlich so aus:
    Projektansicht in OpenRefine
    Projektansicht in OpenRefine

    → Die Einträge aus der CSV-Datei werden tabellarisch dargestellt. In der ersten Spalte sind verschiedene frühneuhochdeutsche Schreibvarianten einzelner Zutaten, in der zweiten Spalte die heutige Schreibweise und in der dritten Spalte befinden sich die Übersetzungen in modernes Englisch. Jede Spalte verfügt über ein Drop-Down-Menü, das uns verschiedene Bearbeitungsmöglichkeiten bietet, wobei für uns vor allem jene Funktion, die eine Anreicherung mit Normdaten (Reconciliation) ermöglicht, von Interesse ist.

3. Bearbeitung der Dokumente

  • Sollten wir zwischenzeitlich unser Projekt geschlossen haben, müssen wir für die Arbeit in OpenRefine zuerst wieder unsere Datei openrefine.exe starten, über die erneut der Browser geöffnet wird. Unter Open Project in der linken Navigationleiste können wir schließlich unsere Projekte einsehen. Wir öffnen hier unser bereits angelegtes Projekt “MaRezepte”.
    Einstieg zur Projektbearbeitung in OpenRefine
    Einstieg zur Projektbearbeitung in OpenRefine
  • Um unsere Zutatenliste mit Einträgen aus einer Normdatenbank anzureichern, überprüfen wir zuerst, welche Einträge auf Basis der Spalte mit den englischen Begriffen gefunden werden. Wir wählen hier das Englische, weil die englische Wikidata-Datenbank mit der größten Abdeckung an Begriffen zu einer höheren Trefferquote führt. Dafür gehen wir auf die Spalte mit der Überschrift “eng”, wählen im Dropdown die Option Reconcile und dann in der damit verbundenen Auswahl Start Reconcile.
    Auswahl an Datenbearbeitungsmöglichkeiten
    Auswahl an Datenbearbeitungsmöglichkeiten
  • In dem neuen Fenster, das sich daraufhin öffnet, klicken wir in der linken Menüleiste auf “Wikidata (en)”.
    Start des Abgleichs mit den Normdaten von Wikidata
    Start des Abgleichs mit den Normdaten von Wikidata
  • In dem nachfolgenden Fenster wählen wir folgende Einstellungen:
    • Bei der Kategorienzuordnung, mit der festgelegt werden kann, dass die Begriffe nur mit Entitäten einer bestimmten Kategorie abgeglichen werden, möchten wir uns nicht zu sehr einschränken. Wir könnten natürlich nur “food ingredients” auswählen, aber erstens sind nicht alle Entitäten einer Kategorie zugewiesen und zweitens ist die Kategoriezuordnung nicht immer eindeutig, weshalb beispielsweise einer Zutat wie Petersilie anstelle der Kategorie “Zutat”, auch einfach nur die Kategorie “Pflanze” zugeordnet sein könnte. Um zu verhindern, dass durch die Einschränkung auf eine bestimmte Kategorie möglicherweise unkategorisierte oder abweichend kategorisierte Entitäten nicht mit unseren Daten abgeglichen werden, nutzen wir die Option: “Reconcile against no particular type”.
    • Zusätzlich gibt es die Möglichkeit, über die Checkbox “Auto-match candidates with high confidence” einzustellen, dass bei jenen Begriffen, für die mit hoher Wahrscheinlichkeit eine passende Wikidata-Entität gefunden wurde, eine automatische Zuordnung vorgenommen wird.
  • Mit diesen Einstellungen für unsere Daten starten wir schließlich den Reconciliation-Prozess.
    Diverse Einstellungen vor dem Start des Reconciliation-Prozesses
    Diverse Einstellungen vor dem Start des Reconciliation-Prozesses

    → Dieser Prozess kann je nach Datenmenge ein paar Minuten dauern.

    Unterschiedlich lange Wartezeiten je nach Datenmenge
    Unterschiedlich lange Wartezeiten je nach Datenmenge
  • Kleiner Exkurs bei alternativen Daten: Wenn wir die Begriffe nicht auch Englisch, sondern nur im Standarddeutsch hätten, müssten wir über den Button “Add standard service” ein weiteres Service für das deutsche Wikidata anlegen, indem wir die entsprechende URL zur API eingeben.
    Verknüpfung mit der API zu den deutschsprachigen Wikidata-Einträgen
    Verknüpfung mit der API zu den deutschsprachigen Wikidata-Einträgen

    In unserer linken (und über ein kleines Lesezeichen-Symbol ein- und ausklappbaren) Liste erscheint nun ein Button für die Reconciliation von Begriffen mit deutschsprachigen Wikidata-Einträgen, die wir dann entsprechend für eine Spalte mit deutschsprachigen Begriffen auswählen könnten.

    Auswahl eines anderen Services
    Auswahl eines anderen Services

    → Hinter dem Button “Discover Services” verbergen sich außerdem noch weitere Normdaten-Ressourcen.

  • Sobald der Reconciliation-Prozess abgeschlossen ist, erhalten wir in der Header-Zeile der Spalte einen Überblick zu unserem Fortschritt in Form eines Balkens. Aus unserer Tabelle mit 536 Zeilen wurde knapp ein Fünftel automatisiert mit Normdaten angereichert und für über 80% der Einträge ist noch eine manuelle Überprüfung nötig, da es hier mehrere Entitäten gibt, die mit dem Begriff aus der jeweiligen Zeile übereinstimmen.
    Auswertung des Reconciliation-Prozesses
    Auswertung des Reconciliation-Prozesses

    → Zusätzlich bekommen wir in der linken Leiste Informationen zu den Matches und haben auch die Möglichkeit, den Prozess rückgängig zu machen.

  • Bei allen Begriffen, für die nicht automatisch eine Entsprechung aus den Wikidata-Normaten übernommen wurde, müssen wir nun eine manuelle Zuordnung vornehmen. Durch die Übersetzung der verschiedenen Schreibweisen für einen konkreten Begriff haben wir im Englischen sehr viele gleiche Einträge. Damit wir nicht jeden Zeile einzeln durchgehen müssen, gibt es in OpenRefine die Möglichkeit, das Kästchen mit dem doppelten Häkchen zu verwenden, um den entsprechenden Wikidata-Eintrag für alle identischen Zellen zu übernehmen.
    Gleichzeitige Zuordnung eines Wikidata-Eintrages für alle identischen Zellen
    Gleichzeitige Zuordnung eines Wikidata-Eintrages für alle identischen Zellen

    → Etwas mühsam bei dieser manuellen Zuordnung ist, dass nach jeder Übernahme eines Wikidata-Eintrags das Programm anschließend zum Start der Tabelle hüpft, und man daher anschließend immer erneut zur nächsten, zur Bearbeitung ausstehenden Zeile scrollen muss.

  • Sollte in den Vorschlägen eine passende Wikidata-Entsprechung fehlen, gibt es am Ende der Liste die Möglichkeit, nach weiteren Übereinstimmungen zu suchen und im neuen Suchfenster schließlich weitere Eingaben, unter denen ein Begriff auch zu finden sein könnte, vorzunehmen.
    Suche nach alternativen Wikidata-Einträgen
    Suche nach alternativen Wikidata-Einträgen

    → In unserem Datensatz wurde zum Beispiel das englische Wort “horse radish” mit einem Leerzeichen geschrieben, weshalb in der Liste mit Vorschlägen kein passender Eintrag zu finden war.

  • Sollten wir mit einer unserer Zuordnungen nicht zufrieden sein, gibt es zwei Möglichkeiten, die Zuordnung wieder rückgängig zu machen. Entweder wir klicken einfach auf “Choose new match”, direkt unter dem Begriff, der falsch zugeordnet wurde (a.), oder wir gehen in der linken Menüleiste in den Reiter Undo/Redo und wählen einen vorangegangen Schritt aus, um dort wieder weiterzumachen (b.).
    Zwei Möglichkeiten, unpassende Zuordnungen zu ändern oder zurückzusetzen
    Zwei Möglichkeiten, unpassende Zuordnungen zu ändern oder zurückzusetzen

    → Mit dem “Extract”-Button in der linken Menüleiste ist es außerdem möglich, entweder alle oder einen Teil der bereits getätigten Schritte zu exportieren. Sollte sich die Liste beispielsweise erheblich verändern, so könnte man ein neues Projekt erstellen, und den bisherigen Arbeitsfortschritt über den Import der Arbeitsschritte (mittels “Apply”-Button) wiederherstellen. Anschließend müsste man anschließend nur mehr die neu hinzugekommenen Einträge mit Wikidata-Normdaten angereichert werden.

  • Für Einträge, die man nicht mit Normdaten anreichern möchte oder nicht kann, weil wie in unserem Beispielprojekt mitunter nicht jede Zutat entschlüsselt wurde, gibt es die Möglichkeit, über die Ansicht, die unter “Search for match” erscheint, auszuwählen, dass der Zelle kein Eintrag zugeordnet werden soll.
    Eintrag ohne Zuordnung einer Wikidata-Entität
    Eintrag ohne Zuordnung einer Wikidata-Entität
  • Sobald wir all unsere Einträge mit Wikidata-Einträgen angereichert haben, können wir uns die Q-Nummern der Wikidata-Einträge in einer eigenen Spalte anzeigen lassen.
    Spalte mit Daten der Normalisierung hinzufügen
    Spalte mit Daten der Normalisierung hinzufügen

    Wir müssen dieser Spalte nur mehr einen Namen geben und jede Zeile erhält eine weitere Zelle mit der entsprechenden Q-Nummer.

    Q-Nummern für jeden Eintrag in eigener Spalte
    Q-Nummern für jeden Eintrag in eigener Spalte

    → Wir haben uns für “idno” entschieden, da wir später beim Exportieren diesen Begriff direkt als Attributsbezeichnung übernehmen wollen und als Wert die entsprechende Q-Nummer eingefügt werden soll.

4. Export der Dokumente

  • Um unsere angereicherte Tabelle bzw. normalisierten Daten zu exportieren, klicken wir auf den Button “Export” und wählen die Option “Templating”. Denn unser Ziel ist es, direkt eine XML-Struktur zu generieren, die wir anschließend in unser Register in ediarum übernehmen können.
    Export der Daten über ein Template
    Export der Daten über ein Template
  • In der Ansicht für die Template-Erstellung haben wir nun die Möglichkeit, unsere Daten so zu gestalten, dass sie nur mehr in das ediarum-Sachregister kopiert werden müssen. Dafür tragen wir in das Prefix-Textfeld <list> und als Suffix </list> ein. Entsprechend dem Schema für Register in ediarum möchten wir für jede Zeile einen eigenen <item>-Eintrag erhalten. Als @xml:id soll die englische Übersetzung übernommen werden. Den Wikidata-Link übernehmen wir in Form eines <idno>-Elemente innerhalb des <item>-Elements. Außerdem legen wir auch 1-2 <label>-Elemente an, einmal mit dem Wert “reg” im @type-Attribut für die Übersetzung in Standarddeutsch, und ein weiteres mit dem Wert “alt”, das die frühneuhochdeutschen Bezeichnung enthält. In der Vorschau rechts sehen wir auch, wie unser Output schließlich aussehen wird.
    Individuelle Anpassung des Outputs über die Templating-Methode
    Individuelle Anpassung des Outputs über die Templating-Methode

    Erläuterungen zum Code im Textfeld “Row Template”: Unser Code, der über die einzelnen Zeilen unserer Tabelle iteriert, soll hier noch etwas genauer betrachtet werden. Mittels der General Refined Expression Language (GREL) haben wir unseren Code entsprechend unseren Anforderungen gestaltet.

    
      <item xml:id="{{ if(cells['eng'].value != 'unsolved', cells['eng'].value, cells['deu-enh'].value + '_unsolved') }}">
          {{ if(cells['idno'].value != 'null', '<idno type="uri">https://www.wikidata.org/entity/' + cells['idno'].value + '</idno>', '') }}
          {{ if(cells['deu'].value != 'ungelöst', '<label type="reg">' + cells['deu'].value + '</label>', '<label type="reg">' + cells['deu'].value + '(' + cells['deu-enh'].value + ')</label>') }}
          <label type="alt">{{ cells['deu-enh'].value }}</label>
      </item>
    

    Wir haben für usnere Daten zusätzliche Bedingungen für folgende Spezialfälle eingeführt:

    • Fehlende Übersetzungen: Sollten Zellen in unserem Datensatz in der englischen Spalte “unsolved” bzw. in der deutschen Spalte “ungelöst” beinhalten, weil man nicht weiß, welche Bedeutung der frühneuhochdeutsche Begriff hat, nutzen wir das frühneuhochdeutsche Wort als @xml:id.
    • Fehlende Q-Nummer: Sollte eine Zeile keine Q-Nummer besitzen, wird auch kein <idno>-Element angelegt.
  • Wenn unser Output schließlich so aussieht wie wir ihn gerne hätten, müssen wir nur mehr auf den “Export”-Button klicken und eine TXT-Datei wird heruntergeladen. Für unser Beispielprojekt müssen wir diesen Output aber im Anschluss noch ein wenig anpassen (siehe Transition OpenRefine → ediarum).

Kontakt

Weblink: https://openrefine.org/

Allgemeiner Support Forum
Christian Steiner (DH Craft) christian.steiner@dhcraft.org

Ressourcen

Dokumentation

Tutorials

Projekte, die dieses Tool genutzt haben

  • CoReMa - Cooking Recipes of the Middle Ages: Im Projekt CoReMA wurden mittelalterliche Kochrezepte ediert. Mit den zugrundeliegenden Forschungsfragen sollten die kulinarischen Beziehungen zwischen Frankreich und den deutschsprachigen Ländern untersucht werden, auf welche die französische Kultur von jeher einen großen Einfluss hatte. Das Projekt stellt die transkribierten und annotierten Kochrezepte der deutschsprachigen Überlieferung vor 1500 zur Verfügung. In den historischen Texten sind Zutaten, Küchengeräte und Speisegattungen mit modernen Normdaten annotiert. Diese werden für unterschiedliche Analyse- und Auswertungsmethoden herangezogen.

Literatur

Factsheet

System
Scope des Tools Datenbereinigung & Normalisierung
Softwareumgebung/Softwaretyp (Remotesystem im Browser / Lokaler Client) lokale Browser-Anwendung
Unterstützte Plattformen Linux, Windows & Mac
Geräte Desktop
Einbindung anderer Systeme (Interoperabilität) ✅ (Wikidata, Wikibase)
Accountsystem ❌ (keine Anmeldung erforderlich)
Kostenmodell
(Kostenübersicht / Open Source)
kostenlos
Anforderungen & Methoden
Erforderte Code Literacy sehr gering
Interface-Sprachen (ISO 639-1) en
Unterstützte Zeichenkodierung UTF-8, UTF-16, ASCII
Inkludierte Datenkonvertierung
(Im Pre-Processing mögliche Anpassung der Daten an für die Software erforderliches Format)
Abhängigkeit von anderer Software
(Falls ja, wird diese Software automatisch mitinstalliert?)
Erforderliche Plug-Ins (bei web-basierten Anwendungen)
Dokumentation & Support
Wartung und ständige Erweiterung
Einbindung der Community ✅via Github & Forum
Dokumentation
Dokumentationssprache Englisch
Dokumentationsformat HTML
Dokumentationsabschnitte Introduction, Installing, Running, Starting a project, Exploring data, Transforming data, Reconciling, Wikibase, Wikidata, and Wikimedia Commons, Expressions, Exporting, Troubleshooting, GREL Reference, Technical Reference
Verfügbarkeit von Tutorials ✅Blogbeitrag mit Sammlung an Tutorials
Aktiver Support/Community
(Forum, Slack, Issue Tracker etc.)
✅Forum, GitHub-Issues-Mechanismus
Nutzbarkeit & Nachhaltigkeit
Installationsablauf sehr einfach
Test
(Gibt es ein Test Suite, um zu überprüfen, ob die Installation erfolgreich war?)
Lizenz, unter der das Tool veröffentlicht wurde CC BY 4.0
Registrierung in einem Repository ✅ Github
Möglichkeit zur Software-Entwicklung beizutragen
Benutzerinteraktion & Benutzeroberfläche
Benutzerprofil
(erwartete Nutzer:innen)
Data Scientists, Datenbankbeauftragte
Benutzerinteraktion
(erwartete Nutzung)
Hochladen von Dateien, Datenzusammenführung, -bereinigung, -strukturierung, -normalisierung und -transformation, Export von Dateien
Benutzeroberfläche browserbasiertes GUI
Visualisierungen
(Analyse-, Input-, Outputkonfigurationen)
Benutzerverwaltung
Personenverwaltung
Interne Kommunikationsmöglichkeiten
(z. B. Annotationsrichtlinen, Kommentarfunktionen, …)
Daten- und Toolverwaltung
Zentrale/dezentrale Verwaltungsmöglichkeit ✅ mehrere Projekte möglich
Versionskontrolle ✅ jegliche Änderungen können nachverfolgt und rückgängig gemacht bzw. wiederhergestellt werden
Projektspezifische Einstellungen
API ✅ für Reconciliation
Möglichkeit auf simultanes Arbeiten
Datenupload
Unterstützte Dateiformate CSV, TSV, TXT, JSON, XML, ODS, XLS, XLSX, PX, MARC, RDF(JSON-LD, N3, N-Triples, Turtle, RDF/XML), Wikitext
Importmöglichkeiten auch über Weblinks, SQL-Datenbank oder Google Drive
Informationen zur Datensicherheit [nicht anwendbar, da lokale Ausführung]
Zugänglichkeit von verschiedenen Standorten/Geräten
Einschränkungen hinsichtlich der Datenmenge max. 1 GB
Verlustfreier Upload von bereits bearbeiteten Dokumenten
Unterstützung von IIIF-Import [nicht anwendbar]
Datenbearbeitung (Normalisierungstool)
Komplexitätsgrad der Normalisierung
(z. B. Verfügbarkeit von Buttons, Drag&Drop-Funktion, …)
✅Buttons für Übernahme von Vorschlägen, Liste für Standardservices verfügbar
Reconciliation-Möglichkeiten entsprechend bestimmten Standards für digitale Editionen ✅Wikidata, GND, GeoNames, Pleiades, etc.
Anpassungsmöglichkeit und Validierung entsprechend projektspezifischen Konventionen/Schemata
Datenexport
Unterstützte Dateiformate TSV, CSV, XLS, XSLX, HTML, ODF, SQL, TXT (Templatingmöglichkeit für JSON, XML usw.)
Datenverlust
(nicht vollständiger Erhalt von Annotationen, die bereits vor Verwendung des Tools gemacht wurden)
[nicht anwendbar]
Validierungsmöglichkeit für TEI-XML vor Export [nicht anwendbar, da keine Möglichkeit auf XML-Export]
Datenaufbewahrung nach Export [nicht anwendbar, da lokale Ausführung]

Twitter, Facebook