Datenbank-Spektrum

Zeitschrift für Datenbanktechnologien und Information Retrieval

ISSN: 1618-2162 (Print) 1610-1995 (Online)

Description

Datenbank-Spektrum ist das offizielle Organ der Fachgruppe Datenbanken und Information Retrieval der Gesellschaft für Informatik (GI) e.V. Die Zeitschrift widmet sich den Themen Datenbanken, Datenbankanwendungen und Information Retrieval. Sie vermittelt fundiertes Wissen über die aktuellen Standards und Technologien, deren Einsatz und ihre kommerzielle Relevanz.

Neben Grundlagenbeiträgen, Tutorials, wissenschaftlichen Fachbeiträgen, aktuellen Forschungsergebnissen finden sich in jeder Ausgabe auch Informationen über die Aktivitäten der Fachgruppen, zu Konferenzen und Workshops und über neue Produkte und Bücher. Ein renommiertes Herausgebergremium aus Hochschule und Industrie gewährleistet die Qualität und fachliche Kompetenz der Beiträge.

 

Künftige Schwerpunktthemen:

 

Scalable and intelligent Data Services and Solutions – Results from the Big Data Competence Center ScaDS Dresden/Leipzig

Im Oktober 2014 nahm das Competence Center for Scalable Data Services and Solutions Dresden/Leipzig offiziell seine Arbeit auf. In einem interdisziplinären Konzept bündelt ScaDS Dresden/Leipzig die in den beiden sächsischen Wissenschaftsregionen Dresden und Leipzig vorhandenen Kompetenzen und Ressourcen, um die Big-Data-Herausforderungen in unterschiedlichsten wissenschaftlichen und betrieblichen Anwendungsfeldern zu adressieren. Profilbestimmende Forschungsschwerpunkte liegen dabei in den Gebieten der Datenintegration, der Wissensextraktion sowie der visuellen Analyse von Daten.

Fünf Anwenderbereiche mit Big-Data-Herausforderungen sind direkt in das Zentrum eingebunden: Lebenswissenschaften, Werkstoff- und Ingenieurwissenschaften, Umwelt- und Verkehrswissenschaften, Digital Humanities und Business Data. Darüber hinaus wird ScaDS Dresden/ Leipzig über ein Servicezentrum auch anderen Fachdisziplinen bzw. Branchen als zentraler Anlaufpunkt zur Nutzung von Big-Data-Technologien zur Verfügung stehen. Durch den Aufbau des Servicezentrums und die Entwicklung von Big-Data-Diensten soll eine langfristige Sichtbarkeit und Nachhaltigkeit des Kompetenzzentrums erreicht werden.

Nach vier Jahren Forschungs- und Entwicklungsarbeit sollen in diesem Heft des Datenbank-Spektrums ausgewählte Ergebnisse des ScaDS dargestellt werden.

Expected size of the paper: 8–10 pages, double-column (cf. the author guidelines at www.springer.com/13222). Contributions either in German or in English are welcome.

Deadline for submissions: Oct. 1st, 2018

Issue delivery: DASP-1-2019 (March 2019)

Guest editor:

Erhard Rahm, Universität Leipzig

rahm@informatik.uni-leipzig.de

 

Data and Repeatability

What is common practice in most natural sciences has only recently entered the database field: Ensuring repeatability (or reproducibility) of experiments, in order to validate scientific results and enable experimental comparisons of methods. In our field, the ability to reproduce and repeat experiments has two main ingredients: First, the software or sufficient method description. Second, the data to run the experiments on. This special issue on data and repeatability places its focus on this second, arguably more challenging part.

Providing data for experimentation must overcome many obstacles. For instance, the data must be non-private and non-proprietary; for many types of experiments, data must be properly labeled or accompanied by a gold-standard; in many cases, data is “massaged” before entering experiments; special properties of the data, such as distributions or size, must be known or even adaptable. Sometimes data is varied to fit specific needs of an experiment, i.e., through upsampling and augmentation. In addition, “input data” for experiments may refer to many different things: from raw data to cleaned data, from sets of non-integrated CSV-files to a fully integrated relational database, etc.

We are calling for non-typical database contributions that report on

·         Experiences in handling data for scientific and industrial

·         purposes

·         Experiences in handling data in data science/ML/AI

·         workflows

·         Efforts to create, evaluate or use data for benchmarking

·         Data preparation/cleaning, and data quality war stories

·         Data life cycle management

·         Long-term data preservation and curation

·         Data hubs and repositories

·         Description of datasets of general interest and open data

·         Data and the law – legally managing data

·         Possible impacts on our publishing culture

Submissions can range from single pages, for instance to introduce a dataset, to full-fledged scientific contributions, for instance an experimental analysis of data cleaning methods or war stories.

Expected size of the paper: 8–10 pages, double-column (cf. the author guidelines at www.springer.com/13222). Contributions either in German or in English are welcome.

Deadline for submissions: Feb. 1st, 2019

Issue delivery: DASP-2-2019 (July 2019)

Guest editors:

Jens Dittrich, Universität des Saarlandes

jens.dittrich@cs.uni-saarland.de

Felix Naumann, Hasso Plattner Institut, Universität Potsdam

Felix.Naumann@hpi.de

Norbert Ritter, Universität Hamburg

ritter@informatik.uni-hamburg.de

 

BestWorkshop Papers of BTW2019

This special issue of the “Datenbank-Spektrum” is dedicated to the Best Papers of the Workshops running at the BTW 2019 at the University of Rostock. The selected Workshop contributions should be extended to match the format of regular DASP papers.

Paper format: 8-10 pages, double-column

Selection of the Best Papers by the Workshop chairs and the guest editor: April 15th, 2019

Deadline for submissions: June 1st, 2019

Issue delivery: DASP-3-2019 (November 2019)

Guest editor:

Theo Härder, University of Kaiserslautern

haerder@cs.uni-kl.de

Browse Volumes & Issues