1 Einleitung

Der kompetente Umgang mit Informations- und Kommunikationstechnologien (Information and Communication Technology, ICT Literacy) stellt für Studierende eine unverzichtbare fachübergreifende Kompetenz dar. Sowohl die Zunahme digitaler Lehr- und Lernformate an den Hochschulen als auch die fortschreitende Digitalisierung der Arbeitswelt erfordern, dass große Bereiche des Wissens über die gesamte Lebensspanne weitgehend selbstgesteuert und vornehmlich über digitale Medien anzueignen sind (Acemoglu und Autor 2011). Von den Studierenden wird daher erwartet, dass sie im Umgang mit digitalen Medien zumindest über grundlegende Kompetenzen (z. B. effiziente Informationsrecherche) verfügen (Rott 2014), die zu einem professionellen Agieren in studienbezogenen und beruflichen Situationen befähigen.

Während international einige Befunde zur ICT Literacy von Studierenden vorliegen (Katz 2007; Blignaut und Els 2010; Smith et al. 2013), wurde diese Domäne bei Studierenden in Deutschland bislang nur ansatzweise untersucht (Heinze et al. 2009; Leichner et al. 2014; Rott 2014). Da die hierzulande durchgeführten Studien nur einzelne Komponenten des Konstrukts (z. B. Informationsrecherche) betrachten, kleinere Gelegenheitsstichproben umfassen und teilweise auf Selbsteinschätzungen der Studierenden beruhen, erlauben sie keine validen Aussagen über die Grundgesamtheit der Studierenden in Deutschland. Ungeachtet dieser Einschränkungen deuten die in nationalen wie internationalen Studien berichteten Wissens- und Fertigkeitsdefizite übereinstimmend darauf hin, dass nicht alle Studierenden über die für ihr akademisches und berufliches Fortkommen notwendige ICT Literacy verfügen (Katz 2007; Schulmeister 2009).

Daher wird im vorliegenden Beitrag anhand von Sekundäranalysen des Nationalen Bildungspanels (National Educational Panel Study, NEPS) die wissensbasierte ICT Literacy (im Sinne einer kognitiven Leistungsdisposition) von angehenden und fortgeschrittenen Studierenden an einer repräsentativen Stichprobe untersucht. Hierfür werden die Testwerte beider Gruppen anhand eines Standard-Setting-Verfahrens in Kompetenzniveaus überführt, die eine Bewertung der Kompetenzstände anhand normativ festgelegter Standards ermöglichen (Pant et al. 2010). Anhand der Kompetenzniveaus können die Studierendenanteile bestimmt werden, die zu verschiedenen Studienzeitpunkten über eine ausreichende ICT Literacy im Sinne von Mindeststandards verfügen. Zunächst beschreiben wir das dieser Studie zugrundeliegende Kompetenzstrukturmodell zur ICT Literacy von Studierenden und fassen bislang vorliegende Befunde zur ICT Literacy von Studierenden zusammen. Die Ergebnisse werden abschließend im Hinblick auf die Sicherstellung grundlegender ICT-Kenntnisse und -Fertigkeiten von Studierenden als Kernziel der Hochschulbildung diskutiert.

2 Kompetenzstrukturmodelle zur ICT Literacy von Studierenden

2.1 Das ICT Literacy Proficiency Model

Die bislang elaborierteste und am umfangreichsten evaluierte Rahmenkonzeption zur ICT Literacy von Studierenden ist das vom Educational Testing Service (ETS) entwickelte ICT Literacy Proficiency Model (Katz 2007; vgl. auch Sparks et al. 2016 für eine Übersicht verschiedener Konzeptualisierungen). Dieses wurde im Rahmen der National Higher Education ICT Initiative unter Beteiligung nordamerikanischer Hochschulen entwickelt und basiert auf der prominenten Konzeption des International ICT Literacy Panels (ETS 2002) sowie den Information Literacy Competency Standards for Higher Education (ACRL 2000). Danach werden unter ICT Literacy funktionale (d. h. von der Lebens- und Arbeitswelt ausgehende) Wissensbestände und Fertigkeiten im Umgang mit digitalen Medien verstanden, die für eine erfolgreiche Teilhabe an der Gesellschaft und für ein kontinuierliches Weiterlernen bedeutsam sind. ICT Literacy umfasst neben technologischen Kompetenzen (grundlegendes deklaratives und prozedurales Funktionswissen über Programmanwendungen) zusätzlich informationsbezogene Kompetenzen. Diese beinhalteten die Fähigkeit, mit Hilfe digitaler Medien Informationen zu ermitteln, diese kritisch auszuwählen und effektiv für spezifische Zielsetzungen in verschiedenen Anforderungssituationen (z. B. Studium, persönliche Belange) zu nutzen (Katz 2007). ICT Literacy wird als das Zusammenwirken von kognitiven (z. B. schlussfolgerndes Denken, Problemlösen) und technologischen Fertigkeiten, d. h. als eindimensionales Konstrukt verstanden und wird folgendermaßen definiert: „ICT literacy is the ability to appropriately use digital technology, communication tools, and/or networks to solve information problems in order to function in an information society. This includes having the ability to use technology as a tool to research, organize, and communicate information“ (Katz 2007, S. 4).

Die Rahmenkonzeption des ICT Literacy Proficiency Model differenziert sieben Prozesskomponenten (siehe Tab. 1 für eine Auflistung und Kurzdarstellung der Prozesse; für eine ausführliche Darstellung: Katz 2007). Diese beschreiben Wissensbestände und Fertigkeiten, über die Studierende für eine erfolgreiche Bewältigung ihres Studiums sowie zukünftiger beruflicher Anforderungen verfügen sollten. Die aus dieser Konzeption abgeleitete Testkonzeption (ETS iskills assessment) berücksichtigt darüber hinaus gebräuchliche Programmanwendungen (z. B. Office-Programme, E‑Mail, Webbrowser) sowie verschiedene Kontexte (persönlich, bildungsbezogen). Die Erfassung des Konstrukts erfolgt in Form interaktiver und mehrschrittiger Simulationsaufgaben im Sinne einer verhaltensbasierten ICT Literacy (Katz 2007). Das ETS iskills assessment ermöglicht Hochschulen anhand normativ festgelegter Mindeststandards zu überprüfen, inwieweit ihre Studierenden zu verschiedenen Studienabschnitten (Studienbeginn, Ende des ersten Studienabschnitts) über eine ausreichende ICT Literacy verfügen (Tannenbaum und Katz 2008).

Tab. 1 Differenzierung der ICT Literacy in den Rahmenkonzeptionen des ICT Literacy Proficiency Model und des Nationalen Bildungspanels (NEPS)

2.2 ICT Literacy von Studierenden im Nationalen Bildungspanel

In NEPS wird die ICT Literacy von Studierenden gemäß einem Multikohorten-Sequenz-Design (Blossfeld et al. 2011) zu verschiedenen Zeitpunkten und in verschiedenen Startkohorten (Starting Cohort, SC) erhoben. Die Erfassung des Konstrukts erfolgt im Gegensatz zum ICT Literacy Proficiency Model (interaktive Simulationsaufgaben) anhand von statischen Aufgaben im Multiple Choice (MC)-Format. Aufgrund dieser Limitation im Aufgabenformat erfassen die NEPS-Aufgaben deklarative und prozedurale Wissensbestände des Konstrukts im Sinne einer wissensbasierten ICT Literacy, während die Performanzaufgaben des ICT Literacy Proficiency Model zusätzlich prozedurales Handlungswissen erfassen und somit das Konstrukt im Sinne der Anwendung erworbenen Wissens in realitätsnahen Situationen (verhaltensbasierte ICT Literacy) messen (Senkbeil und Ihme in Vorbereitung; vgl. hierzu auch z. B. Seeber et al. 2010; Blömeke et al. 2015). Entsprechend decken die NEPS-Tests eine geringere Konstruktbreite ab und erfassen ein Teilkonstrukt von ICT Literacy (vgl. Senkbeil und Ihme in Vorbereitung; Sparks et al. 2016).

Mit Ausnahme dieser Limitation in der Konstruktbreite orientiert sich die Rahmenkonzeption von ICT Literacy im nationalen Bildungspanel in hohem Maße am ICT Literacy Proficiency Models bzw. an der Konzeption des ICT Literacy Panels. Konkret gründet die Konzeptualisierung in NEPS auf derselben Definition und differenziert weitgehend identische Prozesskomponenten und Programmanwendungen in einem Strukturmodell (siehe online verfügbares Zusatzmaterial, Anhang A oder Senkbeil et al. 2013). Entsprechend weisen beide Konzeptualisierungen eine hohe Übereinstimmung auf, wie die Gegenüberstellung in Tab. 1 zeigt. Wie beim ICT Literacy Proficiency Model ist ICT Literacy in NEPS als eindimensionales Konstrukt konzeptualisiert, bei dem die Aufschlüsselung nach verschiedenen Dimensionen dazu dient, die zentralen kognitiven Prozesse, Programmanwendungen und Kontexte zu definieren (vgl. Senkbeil et al. 2013; Sparks et al. 2016).

Zusammenfassend lässt sich somit bilanzieren, dass die Erfassung von ICT Literacy in NEPS bei Studierenden konzeptuell sowie in der Testoperationalisierung an das ICT Literacy Proficiency Model anschlussfähig ist. Sie erlaubt weitergehend eine Überprüfung der Kompetenzen in Form kriterienbezogener Rückmeldeformate, welche die Leistungsverteilung auf kategorial gestuften Kompetenzniveaus abbilden (Pant et al. 2010).

3 Internationale und nationale Befunde zur ICT Literacy

Mit dem ETS iskills assessment durchgeführte und auf großen Stichproben basierende Evaluationen (N > 6000; Katz 2007) in Nordamerika zeigen, dass mehr als die Hälfte der angehenden wie auch der fortgeschrittenen Studierenden den jeweils festgelegten Mindeststandard verfehlen (Tannenbaum und Katz 2008). Insbesondere bei informationsbezogenen Problemstellungen wie z. B. der effizienten Informationssuche im Internet, dem Bewerten von Informationen oder dem adressatengerechten Erstellen von Informationsprodukten (z. B. Texte, Präsentationen) weisen die untersuchten Studierenden mehrheitlich gravierende Defizite auf (Wallace und Clariana 2005; Katz 2007). Weiterhin ergeben sich erwartungsgemäß eine höhere ICT Literacy für fortgeschrittene Studierende im Vergleich zu Studienanfängern sowie Kompetenzunterschiede in Abhängigkeit vom Studienfach (Troboy et al. 2009; Teske und Etheridge 2010). Zu ähnlich ernüchternden Befunden, wonach die Studierenden mehrheitlich nicht den normativ festgelegten Mindeststandard erreichen, kommen Evaluationsstudien aus Kanada und Südafrika, die jedoch auf vergleichsweise kleinen Stichproben (N ≈ 100) basieren (Blignaut und Els 2010; Smith et al. 2013). Weiter gestützt werden diese Befunde durch eine Reihe von Studienergebnissen, die im Rahmen des Information Problem Solving-Paradigmas ermittelt wurden (Walraven et al. 2009). Bei verschiedenen Aufgabenstellungen zeigte sich, dass Studierende häufig Probleme haben, adäquate Suchbegriffe zu formulieren, und ermittelte Informationen oftmals nur anhand oberflächlicher Kriterien hinsichtlich ihrer Glaubwürdigkeit und Nützlichkeit einschätzen (Walraven et al. 2009; Nikolopoulou und Gialamas 2011; Goldman et al. 2012). Mit diesen Befunden korrespondierend fehlt es Hochschulabsolventen bei Berufseintritt aber häufig an grundlegenden digitalen Kompetenzen (z. B. effiziente Informationsrecherche, Umgang mit Office- oder E‑Mail-Programmen) wie auch an realistischen Vorstellungen darüber, welche digitalen Kompetenzen die jeweilige Berufsausübung erfordert (Littlejohn et al. 2012; Raish und Rimland 2016).

Für Deutschland liegen bislang nur wenige empirische Befunde zur ICT Literacy von Studierenden vor. Studien zu einzelnen Komponenten, z. B. der Informationskompetenz, deuten – analog zu den internationalen Befunden – auf zum Teil erhebliche Wissensdefizite von Studierenden hin, z. B. bei der Suche nach wissenschaftlichen Informationen und deren Bewertung (z. B. Heinze 2008; Schmidt-Hertha und Rott 2014; Mayer et al. 2016). Aufgrund ihrer methodischen Beschränkungen (z. B. kleine Gelegenheitsstichproben, Berücksichtigung weniger Studienfächer, zum Teil Erfassung selbsteingeschätzter Fähigkeiten) erlauben sie aber keine generalisierenden Aussagen.

Aufgrund fehlender Studien werden häufig Daten zur freizeit- und studienbezogenen Nutzung digitaler Medien von Studierenden zur Einschätzung ihrer ICT Literacy herangezogen. So zeigt sich, dass Studierende häufig nur unzureichend in der Lage sind, ihre ICT-bezogenen Wissensbestände und Fertigkeiten auf hochschulrelevante Lerninhalte zu übertragen (Schulmeister 2009) und in der Mehrzahl ein begrenztes Verständnis von innovativen und digitalen Lehr-Lernszenarien (z. B. Blended Learning, kollaborative Arbeitsformen) haben. Die studienbezogene Nutzung digitaler Medien fällt bei vielen Studierenden entsprechend konservativ aus und beschränkt sich weitgehend auf klassische digitale Medien wie PDF-Dokumente, E‑Mail und Präsentationsprogramme (Persike und Friedrich 2016). Da sie digitale Medien im privaten Kontext zudem vergleichsweise eingeschränkt, d. h. größtenteils zur Unterhaltung und zum sozialen Austausch nutzen, werden bei Studierenden unzureichende digitale Kompetenzen im Hinblick auf ihr akademisches Fortkommen vermutet (Schulmeister 2010).

Darüber hinaus sind studienfachspezifische Unterschiede in der ICT Literacy zu erwarten. Da Personen mit hohen kognitiven Grundfähigkeiten und aus akademischem Elternhäusern eher prestigeträchtige Studienfächer (z. B. Medizin, Jura) wählen und sich seltener für sprach- und kulturwissenschaftliche Fächer entscheiden (Becker et al. 2010), sind bereits zu Studienbeginn fachspezifische Kompetenzunterschiede zuungunsten der Sprach- und Kulturwissenschaften anzunehmen. Darüber hinaus variiert die Nutzung digitaler Lehr- und Lernformate stark über die Studienfächer (Kleimann et al. 2008). Während in den Sprach- und Kulturwissenschaften vornehmlich klassische digitale Medien Anwendung finden, werden in den Ingenieurswissenschaften (z. B. Informatik) häufig zusätzlich interaktive Werkzeuge (z. B. Webkonferenzen) eingesetzt, was sich in höherem Maße als kompetenzförderlich auswirken sollte (Hofhues 2016). Zu Studienbeginn bestehende Kompetenzunterschiede könnten sich demnach während des Studiums noch vergrößern.

Weiterhin werden geschlechtsspezifische Disparitäten in der ICT Literacy bei Studierenden zuungunsten des weiblichen Geschlechts angenommen. Trotz inkonsistenter Befundlage werden für Studentinnen geringere Kompetenzen vermutet, da sie im Vergleich zu Studenten eine höhere ICT-bezogene Ängstlichkeit sowie ein geringeres ICT-bezogenes Selbstkonzept aufweisen und damit einhergehend digitale Lehr- und Lernangebote eher meiden (Huang et al. 2013).

4 Fragestellungen und Hypothesen

Zentrales Ziel dieses Beitrags ist die Untersuchung der ICT Literacy von angehenden und fortgeschrittenen Studierenden (sechstes Fachsemester) für verschiedene Fächergruppen und in Abhängigkeit vom Geschlecht. Die in den NEPS-Tests erzielten Testwerte werden anhand eines Standard-Setting-Verfahrens in Kompetenzniveaus unterteilt, die eine kriterienbezogene Bewertung der Leistungen ermöglichen. Wie beim ETS iskills Assessment (Tannenbaum und Katz 2008) sollen die Kompetenzniveaus die minimalen Wissensbestände und Fertigkeiten in Form von Mindeststandards beschreiben, die Studierende zu verschiedenen Zeitpunkten für ihr akademisches und berufliches Fortkommen benötigen.

Da alle nachfolgend aufgeführten Hypothesen auf der Annahme eines eindimensionalen ICT Literacy-Konstrukts basieren, wird vorab geprüft (Hypothese 0, H0), inwieweit diese Voraussetzung erfüllt ist, d. h. ob die Prozesskomponenten ausreichend hoch korrelieren und über alle Prozesskomponenten vergleichbare und homogene Kompetenzstände für die untersuchten Gruppen (Studienfachgruppen, Geschlecht) vorliegen. Basierend auf den referierten Überlegungen werden folgende inhaltliche Fragestellungen und Hypothesen untersucht:

Fragestellung 1

Über welche Kompetenzstände und Kompetenzniveaus verfügen angehende und fortgeschrittene Studierende?

  • Hypothese 1 (H1): Da Studierende digitale Medien sowohl für studienbezogene als auch private Zwecke nutzen (z. B. Kleimann et al. 2008), weisen fortgeschrittene Studierende eine höhere ICT Literacy auf als angehende Studierende.

  • Hypothese 2 (H2): Gemäß der referierten nationalen und internationalen Befundlage (z. B. Heinze 2008; Tannenbaum und Katz 2008) vermuten wir bei den angehenden Studierenden (H2a) und auch bei den fortgeschrittenen Studierenden (H2b) substanzielle Anteile (≥20 %), die den jeweiligen Mindeststandard nicht erreichen.

Fragestellung 2

Ergeben sich Kompetenzunterschiede in Abhängigkeit vom Studienfach und Geschlecht?

  • Hypothese 3 (H3): Aufgrund der referierten Befunde zu herkunftsbedingten Disparitäten in der Studienfachwahl (Becker et al. 2010) und fachspezifischen Unterschieden in der Nutzung digitaler Medien (z. B. Hofhues 2016) erwarten wir für angehende Studierende (H3a) und fortgeschrittene Studierende (H3b) fachgruppenspezifische Unterschiede in der ICT Literacy. Dabei werden zumindest teilweise Effektstärken von d ≥ 0,50 erwartet, z. B. zwischen den Ingenieurswissenschaften und den Sprach- und Kulturwissenschaften.

  • Hypothese 4 (H4): Daran gekoppelt sollten zwischen den Fachgruppen Unterschiede in den Studierendenanteilen auftreten, die den jeweiligen Mindeststandard erreichen (H4a: angehende Studierende; H4b: fortgeschrittene Studierende).

  • Hypothesen 5 und 6 (H5, H6): Angesichts der inkonsistenten Befundlage (Huang et al. 2013) werden für Studenten allenfalls geringe Kompetenzvorteile (mit Effektstärken von d ≤ 0,30) gegenüber Studentinnen vermutet (H5a: angehende Studierende, H5b: fortgeschrittene Studierende). Entsprechend sollten Studienanfänger (H6a) und fortgeschrittene Studenten (H6b) zu etwas größeren Anteilen auf den höheren Kompetenzniveaus vertreten sein.

Fragestellung 3

Lassen sich Effekte der Eingangsselektivität auf die ICT Literacy von angehenden und fortgeschrittenen Studierenden ermitteln?

  • Hypothese 7 (H7): Da kognitive Grundfähigkeiten stark mit ICT Literacy assoziiert (Senkbeil et al. 2013) sind und bei der Studienfachwahl eine substanzielle Rolle spielen (Becker et al. 2010) sowie die Geschlechter sehr unterschiedlich in den Fächergruppen vertreten sind (siehe Abschnitt 5.1), wird abschließend der Frage nachgegangen, inwieweit fachspezifische Kompetenzunterschiede durch diese Eingangsmerkmale vermittelt werden. Hier ist die Erwartung, dass nach Kontrolle von kognitiven Grundfähigkeiten und Geschlecht im Sinne einer Mediation die Kompetenzunterschiede abnehmen (H7a: angehende Studierende, H7b: fortgeschrittene Studierende).

5 Methode

Die empirische Datengrundlage für die vorliegende Arbeit bildeten Erhebungen in NEPS. Die Anlage und Durchführung von NEPS ist detailliert in Blossfeld et al. (2011) beschrieben. Wir beschränken uns daher im Folgenden auf die für die vorliegende Arbeit wesentlichen Informationen. Diese umfassen die Beschreibung der Stichproben, der ICT Literacy-Tests sowie der Linking-Studie, mit der die ICT Literacy-Tests beider Studierendengruppen auf einer gemeinsamen Metrik skaliert wurden. Abschließend wird das Standard-Setting-Verfahren zur Generierung von kategorialen Kompetenzniveaus erläutert.

5.1 Stichproben

Für die Beantwortung der Fragestellungen berücksichtigen wir die Daten derjenigen Studierenden, für die ICT Literacy-Testwerte sowie valide Angaben zum gewählten Studienfach vorliegen. Der ICT Literacy-Test für die angehenden Studierenden wurde in der Schule am Ende der 12. Jahrgangsstufe in 2013 (SC4, Welle 7) durchgeführt, also ein Jahr vor Studienbeginn. Die Stichprobe umfasst alle Schülerinnen und Schüler, die im darauffolgenden Jahr ein Studium aufgenommen haben (N = 1911; weiblich: 53,9 %). Die Testung der fortgeschrittenen Studierenden erfolgte 2013 im 6. Fachsemester (SC5, Welle 5). Von dieser Stichprobe können N = 1991 (weiblich: 60,6 %) Studierende in die Analysen aufgenommen werden. Um repräsentative Ergebnisse zu erhalten, wurden die Daten für die Analysen entsprechend den Populationsverteilungen gewichtet (siehe Tab. 2).

Tab. 2 Verteilung der angehenden und fortgeschrittenen Studierenden auf die Fächergruppen

Dabei zeigt sich erwartungskonform, dass Studentinnen seltener ein ingenieurswissenschaftliches (Anteil SC4: 25 %, Anteil SC5: 22 %) und ein mathematisch-naturwissenschaftliches Fach (Anteil jeweils knapp unter 40 %) wählen. Bei allen anderen Fächergruppen bildeten sie die Mehrheit (zwischen 55 % in den Rechts‑, Wirtschafts- und Sozialwissenschaften und 75 % in den Sprach- und Kulturwissenschaften).

5.2 Instrumente

ICT Literacy-Tests. Beide Tests, die bei den Studierenden eingesetzt wurden, umfassen bei einer Bearbeitungszeit von 30 min 31 bzw. 29 MC-Aufgaben (vgl. Senkbeil und Ihme 2017). Die Aufgaben enthalten authentische Problemstellungen und erfassen, ob die Testpersonen angemessen mit bestimmten Aufgabenstellungen umgehen können. Für eine möglichst realitätsnahe Gestaltung werden in den Aufgabenstimulus Screenshots integriert (z. B. von einem Internet-Browser) und als Distraktoren häufig realistische Antwortalternativen in Form von Schaltflächen oder Menüs vorgegeben (siehe Abb. 1 und 2 für Beispielitems). Durch in NEPS implementierte Linking-Studien (siehe auch Abschnitt 5.3) können die Kompetenztests über verschiedene Kohorten und Messzeitpunkte gemeinsam skaliert werden (Pohl und Carstensen 2013).

Abb. 1
figure 1

Beispielitem zur Proesskomponente Bewertung (Programmanwendung: Internet); Kompetenzniveau Basic (476 Punkte)

Abb. 2
figure 2

Beispielitem zur Proesskomponente Suchen und Organisieren (Programmanwendung: Tabellenkalkulation); Kompetenzniveau Proficient (663 Punkte)

Kognitive Grundfähigkeiten

Zur Erfassung der kognitiven Grundfähigkeiten wird in NEPS ein sprachfreier Test zum schlussfolgernden Denken (NEPS-MAT, Haberkorn und Pohl 2013) eingesetzt. Dieser ist in der Tradition klassischer Reasoning-Tests als Matrizentest angelegt, umfasst 12 Aufgaben bei einer Bearbeitungszeit von 9 min und besitzt eine ausreichende Reliabilität (Cronbachs α = 0,73). Der individuelle Leistungswert ergibt sich durch den Summenscore über alle 12 Items.

5.3 Linking-Studie

Zur Verknüpfung der beiden ICT Literacy-Tests standen Daten einer im Herbst 2013 durchgeführten Linking-Studie in NEPS zur Verfügung. In dieser bearbeiteten insgesamt N = 394 Schülerinnen und Schüler der zwölften Klasse aus vier Bundesländern sowohl den Test für Klasse 12 (SC4) als auch den Test für die fortgeschrittenen Studierenden (SC5). Die insgesamt 60 Items beider Tests wurden für die Gesamtstichprobe (Linking-Stichprobe, Klasse 12 und fortgeschrittene Studierende) mittels eines eindimensionalen Raschmodells in ConQuest (Wu et al. 2007) unter Verwendung eines Hintergrundmodells (Fächergruppe, Geschlecht, kognitive Grundfähigkeiten) gemeinsam skaliert. Die auf diese Weise ermittelten Kompetenzwerte (fünf Plausible Values, PVs) wurden in der gewichteten Stichprobe der fortgeschrittenen Studierend en auf einen Mittelwert von M = 500 und SD = 100 transformiert. Die EAP/PV-Reliabilität des Gesamttests beträgt 0,72 und ist somit als ausreichend anzusehen (Rost 2004).

5.4 Standard Setting-Verfahren

Um Kompetenzniveaus für beide Studierendengruppen zu generieren, wurde ein Standard-Setting-Verfahren (Pant et al. 2010) auf Grundlage der gemeinsamen Skalierung aller Items durchgeführt. In dem Standard-Setting bestimmte ein ExpertenpanelFootnote 1 aus den Bereichen ICT Literacy und digitales Lehren und Lernen an der Hochschule diejenigen Wissensbestände und Fertigkeiten, über die eine Person für ein bestimmtes Kompetenzniveau verfügen muss, und legte Grenzwerte (so genannte Cut-Scores) zur Trennung der Kompetenzniveaus fest. Hierfür wurde die Item-Descriptor-Matching-Methode angewendet, d. h. die Anforderungen jeder Aufgabe wurden mit vorab erstellten Rohversionen der Kompetenzniveaubeschreibungen (Ferrara und Lewis 2012) abgeglichen. Dem Verfahren liegt ein iteratives Verfahren zugrunde, bei dem sich das Expertenpanel erst individuell und anschließend als Gruppe auf konsensuelle Cut-Scores verständigt. In einem zweiten Schritt wurden die Kompetenzniveaubeschreibungen modifiziert und ausgeschärft, indem die Aufgaben dahingehend analysiert wurden, welche kognitiven Operationen zur erfolgreichen Lösung benötigt werden.

Als Ergebnis dieses Vorgehens wurden die Aufgaben den Kompetenzniveaus Basic und Proficient zugeordnet. Die beiden Kompetenzniveaus wurden anhand der fünf Prozesskomponenten der NEPS ICT Literacy-Rahmenkonzeption beschrieben (siehe Tab. 3). Das Kompetenzniveau Basic definiert ein digitales Grundbildungsniveau, das für die Aufnahme eines Studiums notwendig ist und den Erwerb fortgeschrittener, d. h. für das Studium und den späteren Beruf benötigte Kompetenzen ermöglicht. Das Kompetenzniveau Proficient beschreibt ein erweitertes Grundbildungsniveau, welches Studierende im Verlauf ihres Studiums im Hinblick auf spätere berufliche Anforderungen erwerben sollten. Die Kompetenzniveaus repräsentieren damit Mindeststandards, die ein Studierender zu verschiedenen Studienzeitpunkten erfüllen sollte. Darüber hinaus wurde ein Cut-Score bestimmt, der die notwendigen Wissensbestände und Fertigkeiten beschreibt, damit ein Studierender überhaupt als digital grundgebildet gelten kann. Studierende unterhalb dieses Cut-Scores (Kompetenzniveau Below Basic) verfügen nur über rudimentäre Wissensbestände und Fertigkeiten, besitzen beispielsweise keine ausreichenden Kenntnisse im Umgang mit Office-Programmen und haben grundlegende Probleme bei der Identifizierung, Bewertung und Weiterverarbeitung ermittelter Informationen.

Tab. 3 Ergebnisse des Standard-Settings: Wertebereiche und Beschreibungen der Kompetenzniveaus in NEPS ICT Literacy

5.5 Analysen

Für die Analysen zur Beantwortung der Hypothesen wurde die Statistiksoftware SPSS 24 verwendet. Zwecks Prüfung der Vorab-Hypothese (H0) wurde für den Gesamttest mit 60 Items in ConQuest ein fünfdimensionales Raschmodell gemäß den Prozesskomponenten (Anwenden/Verstehen: 9 Items, Erzeugen: 15 Items; Kommunizieren: 10 Items; Bewerten: 13 Items; Suchen/Organisieren: 13 Items) berechnet. Als Personenparameterschätzer wurden Weighted Likelihood Estimates (WLEs) bestimmt. Zur Bestimmung der Kompetenzen (H1, H3, H5) wurden zunächst die mittleren Kompetenzwerte unter Berücksichtigung der Populationsgewichte für die jeweilige Studierendengruppe berechnet. Da die Mittelwerte und anderen statistischen Kennwerte auf fünf PVs beruhen, wurden alle Analysen fünfmal durchgeführt und die Ergebnisse gemäß den Vorschlägen von Rubin (Rubin’s Rules1987; vgl. auch Rutkowski et al. 2010) gemittelt. Für die Mittelwerte der Fächergruppen wurde inferenzstatistisch anhand der Standardfehler geprüft, ob sie signifikant vom jeweiligen Gesamtmittelwert abweichen. In einem weiteren Schritt wurden mit den Schwellenwerten (Cut-Scores) aus dem Standard-Setting-Verfahren die Verteilungen auf den Kompetenzstufen berechnet (H2, H4, H6). Diese Analysen (Mittelwerte, Kompetenzniveauverteilungen) wurden für die jeweilige Gesamtstichprobe sowie differenziert nach Fächergruppen und Geschlecht durchgeführt. Zur Klärung der Frage, inwieweit Kompetenzunterschiede zwischen den Fächergruppen durch die Eingangsvoraussetzungen vermittelt werden, wurden für beide Studierendengruppen multiple Regressionsanalysen durchgeführt (H7).

6 Ergebnisse

Zunächst wird geprüft, inwieweit die grundlegende Annahme eines eindimensionalen und homogenen ICT Literacy-Konstrukts gerechtfertigt ist. Für die Prozesskomponenten ergeben sich gemäß der eindimensionalen Testkonstruktion substanzielle Interkorrelationen zwischen 0,80 (Anwenden/Verstehen und Bewerten) und 0,88 (Suchen/Organisieren und Bewerten). Für die verschiedenen Fächergruppen zeigen sich über alle Prozesskomponenten für die verschiedenen Fächergruppen weitgehend homogene, d. h. nahezu durchgehend überschneidungsfreie Kompetenzprofile (z-standardisierte WLEs als Personenparameterschätzer; siehe Abb. 3). Nur die Fachgruppe der Humanmedizin und Gesundheitswissenschaften weist ein inhomogenes Kompetenzprofil auf: Vergleichsweise geringen Kompetenzwerten in den Komponenten Anwenden/Verstehen, Erzeugen und Kommunizieren stehen hohe Kompetenzwerte in den Komponenten Bewerten und Suchen/Organisieren gegenüber. Davon abgesehen belegen die jeweiligen Fächergruppen in allen Prozesskomponenten die gleiche Rangposition (bis auf eine Vertauschung in der Rangfolge bei der Prozesskomponente Suchen/Organisieren), wenngleich die Höhe der Kompetenzunterschiede zwischen den Fächergruppen über die Prozesskomponenten variiert.

Abb. 3
figure 3

Mittlere Kompetenzwerte (z-standardisierte WLEs) für die Prozesskomponenten, differenziert nach Fächergruppen. Anmerkung: WLE Weighted Likelihood Estimate (Personenparameterschätzer)

Abb. 4
figure 4

Mittlere Kompetenzwerte (z-standardisierte WLEs) für die Prozesskomponenten, differenziert nach Geschlecht. Anmerkung: WLE Weighted Likelihood Estimate (Personenparameterschätzer)

In Bezug auf das Geschlecht zeigt sich konsistent bei allen Prozesskomponenten ein Kompetenzvorteil für die Studenten, der ebenfalls in der Höhe leicht variiert (Abb. 4).

Aufgrund der erwarteten, weitgehend homogenen Kompetenzprofile erscheint die Überprüfung der inhaltlichen Hypothesen auf Grundlage des Gesamttests gerechtfertigt. Das abweichende Kompetenzprofil für die Fachgruppe der Humanmedizin und Gesundheitswissenschaften sowie die variierenden Kompetenzunterschiede zwischen den Fächergruppen über die Prozesskomponenten werden bei der Diskussion berücksichtigt.

6.1 ICT Literacy bei angehenden und fortgeschrittenen Studierenden

Wie Tab. 4 ausweist, verfügen fortgeschrittene Studierende erwartungsgemäß über eine höhere ICT Literacy als angehende Studierende (H1a). Der Unterschied von 100 Punkten (501 vs. 401 Punkte) entspricht einer Effektstärke von d = 1,00, was auf einen erheblichen Kompetenzzuwachs in der ersten Studienphase hinweist. Ebenfalls hypothesenkonform ergeben sich bei angehenden Studierenden (H3a) und bei fortgeschrittenen Studierenden (H3b) zum Teil beträchtliche Unterschiede in der ICT Literacy zwischen den Fächergruppen. Bei den angehenden Studierenden weisen die Studierenden der Sprach- und Kulturwissenschaften mit 368 Punkten die geringste geringere ICT Literacy (368 Punkte) auf. Sie liegen zwischen 32 und 53 Punkten hinter den Studierenden den Rechts‑, Wirtschafts- und Sozialwissenschaften (d = 0,36), der Medizin (d = 0,42), den Ingenieurswissenschaften (d = 0,58) und den mathematisch-naturwissenschaftlichen Fächern (d = 0,58). Ähnlich ungünstig schneiden Studierende der sonstigen Fächergruppen (Sport, Agrar‑, Forst- und Ernährungswissenschaften, Veterinärmedizin, Kunst und Kunstwissenschaften) mit 372 Punkten ab. Deren Kompetenzrückstände zu den übrigen Fächergruppen fallen nahezu identisch aus (0,39 ≤ d ≤ 0,61).

Tab. 4 ICT Literacy der angehenden und fortgeschrittenen Studierenden: Mittelwerte (M), Standardabweichungen (SD) und Standardfehler (SE)

Weiterhin erzielen männliche Studienanfänger deutlich höhere Kompetenzwerte als die weiblichen Studienanfänger (H5a). Der Unterschied fällt mit 52 Punkten (d = 0,57) größer aus als erwartet und ist nicht auf die unterschiedliche Verteilung der Geschlechter auf die Fächergruppen zurückzuführen, d. h. es ergeben sich bei einer zweifaktoriellen Varianzanalyse mit den Faktoren Fächergruppe und Geschlecht keine signifikanten Interaktionseffekte.

Diese Unterschiede zeigen sich in sehr ähnlicher Form, d. h. mit identischen Rangfolgen bei den fortgeschrittenen Studierenden. Im Vergleich zu den angehenden Studierenden fallen die Unterschiede zwischen den Fächergruppen und den Geschlechtern prägnanter aus, wie an den größeren Varianzanteilen, die durch die Fächergruppenzugehörigkeit (Eta2: 7,6 % vs. 4,6 %) und das Geschlecht (Eta2: 11,6 % vs. 7,0 %) aufgeklärt werden können, deutlich wird. Entsprechend fallen die Kompetenzrückstände der Studierenden der Sprach- und Kulturwissenschaften (35 bis 75 Punkte; 0,45 ≤ d ≤ 0,75) und der sonstigen Fächergruppen (39 bis 79 Punkte; 0,41 ≤ d ≤ 0,64) noch größer aus. Die Studierenden der Ingenieurswissenschaften erzielen mit 537 Punkten wiederum das beste Ergebnis. Ebenso fallen die Kompetenzvorteile der männlichen Studierenden im sechsten Fachsemester mit 68 Punkten (d = 0.69) höher aus als bei Studienbeginn (H5b) und sind wiederum nicht durch Interaktionseffekte zwischen Fächergruppe und Geschlecht aufklärbar. Zusammengefasst stützen die Ergebnisse unsere Erwartung, wonach Studierende in Bezug auf ihre ICT Literacy keine homogene Population darstellen. Auffällig sind jedoch die unerwartet starken geschlechtsbezogenen Kompetenzunterschiede. Im Folgenden wird berichtet, zu welcher Verteilung auf die Kompetenzniveaus die berichteten mittleren Unterschiede führen.

6.2 Kompetenzniveaus der angehenden und fortgeschrittenen Studierenden

Wie im Methodenteil erläutert, definieren die vom Expertenpanel festgelegten Kompetenzniveaus jeweilige Mindeststandards für die angehenden Studierenden (Basic) und die fortgeschrittenen Studierenden (Proficient). Studierende, die nicht das Kompetenzniveau Basic erreichen, verfügen über keine ausreichende digitale Grundbildung, die für die Aufnahme eines Studiums notwendig ist. Wie Tab. 5 zeigt, ergeben sich bei beiden Studierendengruppen sowohl für die Fächergruppen als auch für das Geschlecht starke Unterschiede in der Erreichung der jeweiligen Mindeststandards (H4, H6).

Tab. 5 Verteilung der angehenden und fortgeschrittenen Studierenden auf die vom Expertenpanel definierten Kompetenzniveaus, getrennt nach Fächergruppen und Geschlecht (Angaben in Prozent)

Unserer Hypothese entsprechend (H2a) unterschreiten insgesamt 20 % der angehenden Studierenden den festgelegten Mindeststandard (Kompetenzniveau Basic). Bei den Studierenden der sprach- und kulturwissenschaftlichen Fächer sowie der sonstigen Fächergruppen beträgt der Anteil sogar mehr als ein Viertel (30 % bzw. 31 %). Bei den andern Fächergruppen fallen diese Anteile deutlich geringer aus und betragen zwischen 14 % (Ingenieurswissenschaften) und 20 % (Rechts‑, Wirtschafts- und Sozialwissenschaften; H4a). In Bezug auf das Geschlecht zeigt sich, dass 27 % der weiblichen Studienanfänger den Mindeststandard nicht erreichen. Der Anteil ist mehr als doppelt so hoch wie bei den männlichen Studienanfängern (13 %; H6a).

Im sechsten Fachsemester erreichen 48 % der Studierenden das Kompetenzniveau Proficient. Trotz offensichtlich erheblicher Kompetenzzuwächse in der ersten Studienphase (siehe H1a) erreicht also etwas mehr als die Hälfte der Studierenden (noch) nicht den normativ festgelegten Standard, was deutlich über dem vorab vermuteten Prozentsatz liegt (H2b). Am schlechtesten schneiden Studierende der Sprach- und Kulturwissenschaften und der sonstigen Fächergruppen ab. Von diesen erreicht weniger als ein Drittel (32 % bzw. 31 %) den Mindeststandard (H4b). Immerhin etwa 6 % der Studierenden dieser Fächergruppen unterschreiten auch noch zu diesem Zeitpunkt den Mindeststandard der angehenden Studierenden.

Die höchsten Studierendenanteile auf Kompetenzniveau Proficient finden sich bei den Ingenieurswissenschaften (63 %) und den mathematisch-naturwissenschaftlichen Fächern (54 %). Weiterhin verfügen nahezu alle Studierende dieser beiden Fächergruppen – wie auch der Rechts‑, Wirtschafts- und Sozialwissenschaften – zumindest über ein ausreichendes Maß digitaler Grundbildung (Kompetenzniveau Basic).

Große Unterschiede sind auch hinsichtlich des Geschlechts festzustellen (H6b). Deutlich mehr als die Hälfte der fortgeschrittenen Studenten (62 %) erreicht den Mindeststandard Proficient, dies trifft jedoch nur auf ein Drittel der fortgeschrittenen Studentinnen zu (34 %). Während die Studenten im sechsten Semester nahezu flächendeckend zumindest über eine digitale Grundbildung verfügen, erreichen mehr als 5 % der fortgeschrittenen Studentinnen auch zu diesem Zeitpunkt nicht dieses Niveau.

6.3 Kompetenzunterschiede unter Kontrolle von kognitiven Grundfähigkeiten und Geschlecht

In multiplen Regressionsanalysen wird geprüft, inwieweit die Fachgruppenunterschiede in der ICT Literacy durch bestimmte die Eingangsmerkmale kognitive Grundfähigkeiten und Geschlecht vermittelt werden. Die Ergebnisse der dazu spezifizierten Regressionsmodelle mit den entsprechenden Regressionskoeffizienten sind in Tab. 6 für die angehenden Studierenden und Tab. 7 für die fortgeschrittenen Studierenden dargestellt.

Tab. 6 ICT Literacy der angehenden Studierenden in Abhängigkeit der kognitiven Grundfähigkeiten und dem Geschlecht (unstandardisierte Regressionskoeffiezienten (B) und Standardfehler (SE))
Tab. 7 ICT Literacy der fortgeschrittenen Studierenden in Abhängigkeit der kognitiven Grundfähigkeiten und dem Geschlecht (unstandardisierte Regressionskoeffiezienten (B) und Standardfehler (SE))

Modell 1 gibt jeweils noch einmal die Kompetenzunterschiede zwischen den Fächergruppen für die jeweilige Studierendengruppe wieder. Die unstandardisierten Regressionskoeffizienten (B) entsprechen den Mittelwertdifferenzen zur Referenzgruppe (Ingenieurswissenschaften) in Tab. 4. In Modell 2 wird zusätzlich das Geschlecht und in Modell 3 darüber hinaus die kognitiven Grundfähigkeiten aufgenommen. Durch die Berücksichtigung des Geschlechts in Modell 2 erhöhen sich die Anteile aufgeklärter Varianz bereits deutlich (angehende Studierende: ∆R2 = 0,04; fortgeschrittene Studierende: ∆R2 = 0,08), und die Aufnahme der kognitiven Grundfähigkeiten in Modell 3 führt zu einer weiteren Zunahme aufgeklärter Varianz (angehende Studierende: ∆R2 = 0,09; fortgeschrittene Studierende: ∆R2 = 0,07).

Die jeweiligen Veränderungen in den Regressionskoeffizienten zwischen Modell 1 (Ausgangsmodell) und Modell 3 (finales Modell) weisen auf die vermuteten Mediationseffekte hin (H7a, H7b), da sich bei beiden Studierendengruppen die Abstände zur Referenzgruppe der Ingenieurswissenschaften erheblich verringern (angehende Studierende: zwischen 9 und 30 Punkten; fortgeschrittene Studierende: zwischen 9 und 39 Punkten). Bei den angehenden Studierenden ergeben sich für einige Fächergruppen (z. B. Mathematik und Naturwissenschaften) sogar geringe, aber nicht signifikante Kompetenzvorteile. Zusammengefasst verschwinden bei den Fächergruppen Rechts‑, Wirtschafts- und Sozialwissenschaften, Mathematik und Naturwissenschaften sowie Humanmedizin und Gesundheitswissenschaften die vormals signifikanten Mittelwertdifferenzen im Vergleich zu den Ingenieurswissenschaften. Bei den anderen Fächergruppen (Sprach- und Kulturwissenschaften, sonstige Fächergruppen) bleiben hingegen signifikante Kompetenzrückstände bestehen. Während diese bei den angehenden Studierenden angesichts der gewählten Metrik (SD = 100) vergleichsweise gering ausfallen, entsprechen sie bei den fortgeschrittenen Studierenden zumindest mittelgroßen Effekten. Im Einklang mit den Hypothesen (H7a, H7b) lässt sich somit zusammenfassen, dass die Kompetenzunterschiede zwischen den Fächergruppen zumindest teilweise durch die Eingangsselektivität (kognitive Grundfähigkeiten, Geschlecht) vermittelt, aber nicht vollständig durch diese aufgeklärt werden.

7 Diskussion

Mit dem vorliegenden Beitrag präsentieren wir Befunde zur bislang noch offenen Fragestellung, in welchem Umfang Studierende in Deutschland über die für ihr akademisches und berufliches Fortkommen notwendige ICT Literacy verfügen. Da es hierzu bislang an belastbaren und verallgemeinerbaren Befunden fehlte (Rott 2014), gingen wir dieser Frage anhand einer Sekundäranalyse von Daten des Nationalen Bildungspanels nach. Darüber hinaus konnte die ICT Literacy mittels eines Standard-Setting-Verfahrens auf kategorial gestuften Kompetenzskalen (Kompetenzniveaus) abgebildet werden. Diese erlauben eine Bewertung der Leistungen zu verschiedenen Studienabschnitten (Studienbeginn, gegen Ende des ersten Studienabschnitts) anhand normativ festgelegter Erwartungen.

Im Folgenden diskutieren wir die Befunde der beiden Studierendengruppen zunächst anhand der Kompetenzniveaus. Anschließend widmen wir uns den Kompetenzdifferenzen zwischen den untersuchten Gruppen (Fächergruppen, Geschlecht) und berücksichtigen hierbei Limitationen der vorliegenden Studie sowie offene Fragestellungen.

7.1 Verteilung auf die Kompetenzniveaus

Erwartungskonform – und im Einklang mit Ergebnissen nordamerikanischer Evaluationsstudien (Tannenbaum und Katz 2008; Smith et al. 2013) – weisen substanzielle Anteile von angehenden und auch vergleichsweise erfahrenen Studierenden (sechstes Fachsemester) beträchtliche Defizite in ihrer ICT Literacy auf. Etwa ein Fünftel der angehenden Studierenden verfügt über kein hinreichendes Maß digitaler Grundbildung, welches für die Aufnahme eines Studiums als notwendig angesehen wird. Angesichts dieser nur rudimentären Wissensbestände und Fertigkeiten sind für diese Studierenden Schwierigkeiten im Studium und im Beruf nicht auszuschließen (Rott 2014), Gegen Ende des sechsten Fachsemesters verfügen nahezu alle Studierenden (97 %) über ein digitales Grundbildungsniveau, welches zwar den Erwerb fortgeschrittener Kompetenzen ermöglicht, aber eigentlich bereits zu Studienbeginn erwartet wird.

Das zu diesem Zeitpunkt normativ erwartete Kompetenzniveau Proficient erreicht jedoch nur knapp die Hälfte der fortgeschrittenen Studierenden (48 %). Berücksichtigt man, dass typische Berufsfelder von Studierenden zunehmend fortgeschrittene Kenntnisse mit Office-Anwendungen (z. B. Tabellenkalkulation) sowie elaborierte Lösungsstrategien zu komplexen informationsbezogenen Problemstellungen (z. B. Abruf, Selektion und Bewertung spezifischer Informationen nach multiplen Kriterien) erfordern (z. B. Rott 2014; Schmidt-Hertha und Rott 2014), werden Kompetenzen auf Grundbildungsniveau hierfür aller Wahrscheinlichkeit nach nicht ausreichend sein.

Diese Befunde korrespondieren mit zentralen Befunden der internationalen Schulleistungsstudie International Computer and Information Literacy Study (ICILS) 2013 und ergänzen diese (Bos et al. 2014). Dort zeigte sich neben einem generell nur mittelmäßigem Abschneiden der Achtklässlerinnen und Achtklässler in Deutschland auch für Gymnasien, die einen Großteil der zukünftig Studierenden stellen, dass nur knapp die Hälfte (48 %) der Schülerinnen und Schüler ein Kompetenzniveau erreicht, welches eine selbstbestimmte und reflektierte Teilhabe in einer digitalisierten Welt erwarten lässt (z. B. selbstständiges Lösen informationsbezogener Problemstellungen, Erstellen inhaltlich gehaltvoller Informationsprodukte; Bos et al. 2014; Eickelmann 2017). Auch wenn die Studien NEPS und ICILS 2013 methodisch und in ihrer Anlage nicht direkt miteinander vergleichbar sind, deuten die Ergebnisse darauf hin, dass sich die in Klasse 8 ermittelten Kompetenzdefizite substanzieller Anteile von Schülerinnen und Schülern bis ins Studium fortsetzen und in der weiteren Schullaufbahn nicht mehr (vollständig) kompensiert werden.

Der hohe Anteil digital illiterater angehender Studierender unterstreicht die Dringlichkeit, mit der die von der Kultusminsterkonferenz (KMK) verabschiedete Strategie „Bildung in der digitalen Welt“ in den Schulen umzusetzen ist. Danach sind aus z. B. ICILS 2013 abgeleitete Kernbereiche digitaler Bildung möglichst frühzeitig in der Schule zu vermitteln, um ein digitales Grundbildungsniveau sicherzustellen, welches den Erwerb fortgeschrittener Kompetenzen (z. B. im Studium) überhaupt erst ermöglicht (KMK 2016; vgl. Eickelmann 2017). Für die Hochschulen fehlen bislang vergleichbar elaborierte Digitalisierungsstrategien. Vielmehr wird vergleichsweise häufig auf noch ungenutzte Potenziale hingewiesen, z. B. die unzureichende technische und didaktische Qualifizierung und Weiterbildung der Hochschullehrenden – als den treibenden Kräften für die Etablierung digitaler Lehr- und Lernformate -und fehlende Anreizsysteme (z. B. Lehrfreisemester, Berufungsverfahren) für diese (z. B. Hochschulforum Digitalisierung 2016; Pensel und Hofhues 2017).

7.2 Kompetenzniveaus nach Fächergruppen und Geschlecht

Besonders hohe Anteile von Studierenden unterhalb des jeweiligen Mindeststandards konnten wir in Sprach- und Kulturwissenschaften sowie in den sonstigen Fächergruppen (Sport, Agrar‑, Forst- und Ernährungswissenschaften, Veterinärmedizin, Kunst) identifizieren. Nahezu ein Drittel der Studierenden in diesen Fächergruppen beginnt ein Studium ohne ausreichende digitale Grundbildung. Dies trifft sogar nach sechs Fachsemestern auf immerhin noch 6 % der Studierenden zu. Für diese Gruppe sind neben Schwierigkeiten in Studium und Beruf auch Probleme im Hinblick auf die private Lebensführung (z. B. Online-Banking, E‑Government) zu befürchten (van Deursen und van Dijk 2009). Umgekehrt erreicht nur knapp ein Drittel das zu diesem Zeitpunkt erwartete Kompetenzniveau Proficient. Dies deutet auf fehlende Lerngelegenheiten in diesen Fächergruppen über den bisherigen Studienverlauf hin. Aber selbst in den leistungsstärksten Fächergruppen, den Ingenieurswissenschaften und den mathematisch-naturwissenschaftlichen Fächern, erreichen bei weitem nicht alle Studierenden die jeweiligen Mindeststandards (angehende Studierende: ≈15 %; fortgeschrittene Studierende: 37 bzw. 46 %). Die vergleichsweise hohen Anteile über alle Fächergruppen unterstreichen die Dringlichkeit, an den Hochschulen Rahmenbedingungen zu schaffen, die eine Förderung der ICT Literacy von Studierenden – in mehr oder weniger allen Studiengängen – ermöglichen (z. B. Hochschulform Digitalisierung 2016).

Eine ungünstige Befundlage zeigt sich auch für Studentinnen. Ihr Anteil an angehenden Studierenden ohne ausreichende digitale Grundbildung ist mit nahezu 27 % mehr als doppelt so hoch wie bei Studenten. Auch ihnen scheint es während des Studiums – unabhängig vom Studienfach – nicht zu gelingen, diese Kompetenzdefizite gegenüber den Studenten aufzuholen, da zwei Drittel der Studentinnen nach sechs Fachsemestern nicht das normativ erwartete Kompetenzniveau Proficient erreichen (männliche Studierende: 62 %).

7.3 Kompetenzunterschiede und Ausblick

Die fachgruppenspezifischen Unterschiede in den Kompetenzniveaus entsprechen erwartungskonform zum Teil mittleren bis starken Effektstärken. Dies gilt vornehmlich für die Sprach- und Kulturwissenschaften sowie die sonstigen Fächergruppen im Vergleich mit den Ingenieurswissenschaften und den mathematisch-naturwissenschaftlichen Fächern (Studienbeginn: 0,49 ≤ d ≤ 0,58; sechstes Fachsemester: 0,63 ≤ d ≤ 0,75). Dieses Ergebnis korrespondiert mit Befunden zur digitalen Mediennutzung, wonach Studierende technologiebezogener und mathematisch-naturwissenschaftlicher Studienfächer eine größere Affinität gegenüber digitalen Medien aufweisen als Studierende der Sprach- und Kulturwissenschaften und diese insgesamt und insbesondere für informationsbezogene Zwecke häufiger nutzen (Kleimann et al. 2008; Persike und Friedrich 2016). Auch unter Kontrolle differenzieller Eingangsmerkmale (kognitive Grundfähigkeiten, Geschlecht) verbleiben immer noch signifikante und in der Größenordnung substanzielle Kompetenzrückstände, insbesondere bei den fortgeschrittenen Studierenden (36 bzw. 54 Kompetenzpunkte). Da in der vorliegenden Studie nur zwei Selektionsvariablen berücksichtigt wurden, ist der Frage nach der Eingangsselektivität in zukünftigen Studien genauer nachgehen.

Die den eigentlichen, inhaltlichen Hypothesen vorgeschaltete Analyse zu den Prozesskomponenten weist für nahezu alle Fächergruppen auf relativ homogene, d. h. gleichförmige Kompetenzprofile, aber auf keine ausgeprägten Stärken oder Schwächen einzelner Fächergruppen hin. So ist die Rangfolge der Fächergruppen über alle Prozesskomponenten identisch, was zum Teil auch Folge des Einsatzes vergleichsweise homogener Items im Sinne einer eindimensionalen Testkonzeption ist. Die einzige Ausnahme bildet die Fachgruppe der Humanmedizin und Gesundheitswissenschaften mit ausgeprägten Stärken beim Bewerten sowie Suchen und Organisieren digital bereitgestellter Informationen. Diese Stärken sind möglicherweise in einer fachbezogenen Tradition bei der Nutzung digitaler Lehr-Lernformate begründet. Mögliche, in den Fächertraditionen begründete Stärken und Schwächen in bestimmten Komponenten der ICT Literacy können anhand eines Grundbildungstests wie dem vorliegenden jedoch nicht oder nur schwer identifiziert werden und bedürfen gesonderter Testentwicklungen (z. B. zum kompetenten Umgang mit Kommunikationswerkzeugen, vgl. z. B. Hofhues 2016). Weiterhin ist genauer zu klären, inwieweit die Kompetenzunterschiede z. B. auf unterschiedliche Muster und Präferenzen der digitalen Mediennutzung im Jugendalter (z. B. instrumentelle Nutzungsmuster bei technologie-affinen vs. hedonistische Nutzungsmuster bei sprachlich-kulturell interessierten Jugendlichen; vgl. Senkbeil 2017) oder soziale Ungleichheiten im Laufe der Mediensozialisation (Hollingworth et al. 2011) zurückgeführt werden können.

Die ähnlich hohen und damit erwartungswidrigen Kompetenzrückstände von mehr als einer halben Standardabweichung der Studentinnen gegenüber den Studenten kontrastieren hingegen z. B. mit Befunden aus ICILS 2013. Dort haben die Jungen in Klasse 8 auf dem Gymnasium einen geringen, aber nicht signifikanten Kompetenzvorsprung (d = 0,08) gegenüber den Mädchen (Bos et al. 2014). Inwieweit möglicherweise geschlechtsbezogene Selektionseffekte bei der Entscheidung für oder gegen ein Hochschulstudium (z. B. Lörz und Schindler 2011) die hohen Kompetenzunterschiede erklären können, konnte anhand der hier analysierten Daten nicht geprüft werden, sollte aber zukünftig detaillierter untersucht werden.

Weiterhin lassen die Ergebnisse vermuten, dass sich zu Studienbeginn bestehende Kompetenzunterschiede zwischen den Fächergruppen im Verlauf des Studiums noch vergrößern (erklärte Leistungsvarianz: 4,6 % zu Studienbeginn vs. 7,6 % im sechsten Fachsemester). Zwischen den beiden leistungsstärksten bzw. -schwächsten Fächergruppen steigen diese von mittleren auf mittlere bis starke Effektstärken an (Studienbeginn: 0,49 ≤ d ≤ 0,58; sechstes Fachsemester: 0,63 ≤ d ≤ 0,75). Die Zunahme der Differenzen zwischen den Fächergruppen bleibt auch unter Kontrolle der Eingangsvoraussetzungen erhalten (siehe Tab. 6). Eine mögliche Erklärung für diese Vermutung liefern Unterschiede der digitalen Mediennutzung im Kontext fachkultureller Traditionen. Eine produktiv-reflexive Nutzung digitaler Medien (z. B. Massive Open Online Courses, interaktive Werkzeuge, kollaborative Lernformen), die mit einer Förderung der ICT Litercay einhergehen sollte, findet sich beispielsweise in der Informatik (Bestandteil der Ingenieurswissenschaften), die traditionell kreativ-aneignende Lernprozesse stark betont. In den Geistes- und Sozialwissenschaften dominiert hingegen eine eher rezeptive Nutzung konventionellerer ICT-Anwendungen (z. B. Weblogs, Textdokumente). Diese dienen vornehmlich der Begleitung und Dokumentation von Lernprozesse und unterstützen in geringerem Umfang die Weiterentwicklung digitaler Kompetenzen (Hofhues 2016; Persike und Friedrich 2016).

7.4 Limitationen

Mit der vorgestellten Studie konnten zwar neue Einblicke über die ICT Literacy angehender und fortgeschrittener Studierender generiert werden, jedoch sind – neben der erwähnten Frage der Eingangsselektivität – ebenso einschränkende Aspekte der Untersuchung zu berücksichtigen. Zum ersten beruht die vorliegende Arbeit auf Querschnittsdaten zweier unterschiedlicher Startkohorten, so dass die Überlegungen zu möglichen differenziellen Kompetenzentwicklungen in Abhängigkeit der Fächergruppe nur hypothetischen Charakter haben. Diese sind demnach an geeigneten Längsschnittdesigns – möglichst unter Einbezug der digitalen Mediennutzung in den jeweiligen Fächergruppen – empirisch zu prüfen.

Zum zweiten erfassen die statischen Aufgaben der NEPS-Tests nur ein Teilkonstrukt von ICT Literacy im Sinne einer wissensbasierten Kompetenz. Anhand von MC-Aufgaben werden zwar deklaratives Fakten- und Konzeptwissen sowie anwendungsorientierte Wissensbestände erfasst, aber die Anwendung erworbenen Wissens in realitätsnahen Situationen (prozedurales Handlungswissen), bleibt unberücksichtigt. Obwohl statische MC- und performanzbasierte ICT Literacy-Aufgaben substanziell miteinander (r ≥ 0,70; Senkbeil und Ihme 2014, in Vorbereitung) korrelieren und somit keine substanziell verschiedenen Befunde in Abhängigkeit vom Aufgabenformat zu erwarten sind, wäre eine genauere Prüfung der ICT Litercay anhand performanzbasierer Aufgaben wünschenswert. Sie liefern umfangreichere, d. h. genauere diagnostische Informationen und könnten als Grundlage für Handlungsempfehlungen zur Sicherstellung grundlegender ICT-Kenntnisse und -Fertigkeiten von Studierenden genutzt werden.