detektor.fm-Interview zu Sci-Hub und Open Access

Gestern wurde ich von detektor.fm zu Sci-Hub und dessen Auswirkung auf die Open-Access-Bewegung interviewt. Ursprünglich wurde bei Matthias angefragt, der das Gespräch aber leider zeitlich nicht unterbringen konnte. Dank geht an Christopher van der Meyden für die Redaktion und Konrad Spremberg für das Führen des Interviews.

Radio muss im Vergleich zum Podcast auf Grund des straffen Zeitrahmens wie auch des breiten Publikum immer stark filtern und lässt nicht viel Raum für Nachbesserungen und große Klarstellungen. Daher will ich hier noch ein wenig Information nachreichen und ein paar Dinge präzisieren.

Ich finde meine Kernaussage wurde besonders im zugehörigen Artikel sehr gut herausgearbeitet: Sci-Hub bietet eine praktische (juristische aber problematische) Lösung um die Paywall von Wissenschaftsverlagen zu umgehen und erleichtert somit dem Zugang zu Wissen. Mein Befürchtung ist allerdings, dass diese Alternative Druck aus dem System nimmt und der Unmut über die momentane Situation nicht den nötigen Wandel hin zu sauberen goldenen Open-Access verstärkt. Auf der anderen Seite ist der momentane große Rummel (Zeit, Spektrum, Atlantic um nur ein paar Medien zu nennen) um Sci-Hub der Sache hoffentlich zuträglich, da somit der breiten Öffentlichkeit vor Augen geführt wird, wie kaputt das wissenschaftliche Publikationswesen ist und wer davon profitiert. Mike Taylor sprich von einem klaren Fall von Steisand-Effekt und meint, dass sich Elsevier mit der Anzeige gegen Sci-Hub keine Gefallen getan hat. Ich kann nur zustimmen. Vielen Leuten außerhalb der Wissenschaft ist die bizarre Situation bisher nicht bekannt und viele Wissenschaftler haben sich leider daran gewöhnt bzw.  wollen ihre Karriere nicht unkonventionelle Publikationsmethoden gefährden. Aber noch einmal ein kurz Rekapitulation des wissenschaftlichen Publikationsprozess, um das Problem darzustellen: Ein Wissenschaftler (in meinem Alltag i. a. eine Gruppe von Wissenschaftlern, aber wir wollen es hier einfach halten) betreibt mit Hilfe von Steuergeldern Forschung und kommt zu Ergebnissen, die er der wissenschaftlichen Fachwelt wie auch der Allgemeinheit mitteilen möchte. Daher geht er zu einem Fachjournal. Dort schaut ein Editor ob das Manuskript den Ansprüchen des Journals genügt. Diese Editor ist entweder vom Verlag bezahlt oder aber ein  Wissenschaftler, der diese Funktion unentgeltlich neben seiner Forschung betreibt. Befindet der Editor den Artikel für ausreichend gut wird er zum Peer-Review, der Begutachtung, an andere Wissenschaftler aus dem Feld geschickt (je nach Journal ~ 1-3). Auch diese Wissenschaftler begutachten unentgeltlich. Der Peer-Review-Prozess kann in mehreren Interationen stattfinden, d. h. es wirden Verbesserungvorschläge gestellt die vom Einreichenden adressiert werden müssen. Am Ende wird das Manuskript auf Basis der Empfehlungen der Peers vom Editor abgelehnt oder angenommen. Wird es angenommen überträgt der einreichende Autor das Copyright an den Verlag des Journal. Das Manuskript wird dann formatiert und gedruckt und/oder online veröffentlicht. „Veröffentlicht“ ist aber Euphemismus. Denn der Artikel landet eigentlich hinter einer sogenannten Paywall. Das heißt nur wer zahlt kann den Artikel lesen. Dies läuft meisten über die Universitätsbibliotheken. Diese verhandeln dazu mit den Verlagen Preise und zahlen dafür, dass ihre Wissenschaftler Zugang zu den Fachzeitschriften haben (offline und/oder online). Kurz: Die Früchte öffentlich finanzierter Forschung werden an eine kommerzielle Entität en abgetreten und der Zugang zu diesem Wissen wieder mit  Steuergeldern teuer erkauft. Unglaublich wie sich diese System etablieren konnte und halten lässt. Für die Verlage ist es enorm lukrativ und Gewinnmargen um die 40% sind nicht unüblich. Das Gegenmodell ist Open-Access, das i.a.  darauf beruht, dass der publizierende Wissenschaftler zahlt, dafür den Großteil der Rechte an der Publikation behält (durch die Nutzung von Creative-Commons-Lizenzen) und das Endprodukt der Allgemeinheit zugänglich ist (und zudem noch weiter verwendet werden kann – ein weiteres spannendes Thema das ich hier aber nicht erläutern werde). Als Gegenargument wir häufig aufgeführt, dass Open-Access-Pulikationen zu teuer seien (~ mehrere hunderte bis tausende USD). Eine Studie der Max Planck Digital Library (MPDL) hat aber vorgerechnet, dass klassisch publizierte Artikel (also mit Subkriptionsgebühr) der Gesamtgesellschaft auch 3000 – 5000 USD kosten. Die Studie zeigt, dass ohne Mehrkosten (ggf. sogar mit Einsparungen) eine Transition zu einer Open-Access-Verfügbarkeit aller wissenschaftlicher Artikel möglich wäre. Ich bin der festen Überzeugung, dass das angestrebt werden muss. Letztendlich ist es  „nur“ eine Änderung des Geschäftsmodells der Verlage. Das im Interview genannte Journal PeerJ ist ein gute Beispiel wie günstiges Open-Access stattfinden kann.

Es gibt allgemein ein riesiges Spektrum an Möglichkeiten von Publikationen, die für den Autoren gänzlich kostenlos sind (elife) bis hin zu Journalen mit Hybridgeschäftsmodellen.  Man kann aber auch noch weiterdenken und fragen, ob kommerzielle Verlage per se überhaupt nötig sind oder ob nicht staatlich Infrastruktur geschaffen werden sollte, die eine moderne Publikationsform günstig gewährleisten kann. Beispiele dafür gibt es bereits.

Dieser Artikel wird schon sehr viel länger als ich es zu Beginn geplant hatte und ich merke wie sich mit jedem Satz neue Bereiche auftun, die eigentlich näher erklärt werden müssten. Das Thema wissenschaftliche Puplikationswesen ist sehr komplex und ich möchte Interessierte einladen, sich an der Diskussion zu ihrer Zukunft zu beteiligen. Ein guter Startpunkt ist sicher der Podcast Open Science Radio, den Matthias Fromm gestartet hat und den wir nun seit einiger Zeit zusammen betreiben. Weitere  Anlaufstelle ist die AG Open Science, in der wir uns mit verschiedenen Aspekten zur Öffnung der Wissenschaft auseinandersetzen.

Open Science Radio 28 (OSR028) – Unseminars mit Aidan Budd

Das neue Jahr starten wir mit erhöhter Podcastfrequenz und so folgte heute die neuste Episode von Open Science Radio der vorherigen mit nur 10 Tagen Abstand (ich habe keine Ahnung wie Matthias das immer so schnell zusammenmischt). Wir haben diesmal wieder einen Gast eingeladen. Aidan Budd, der zur gleichen Zeit wie ich am EMBL promoviert hat, erzählt aus den Unconference/Unseminar/Un-*-Nähkästchen. Als Organisator der Heidelberg Unseminars in Bioinformatics (HUB) hat er reichlich Erfahrungen mit diesen offeneren Formaten für Konferenzen und Seminare gesammelt und konnte daher einen guten Überblick über das Thema geben. Ich selber war bisher nur Teilnehmer von derartigen Veranstaltungen (ein paar Barcamps und einem Treffen im Open-Space-Technology-Format). Aber das Gespräch mit Aidan hat richtig Lust gemacht, selber eine Unseminare-Serie in Würzburg a la HUB zu starten. Wenn es konkreter wird, werde ich hier darauf hinweisen (Interessierte können sich schon jetzt gerne bei mir melden).

Update: Das in der Episode erwähnte Opinion-Paper zum Thema Unkonferenz-Planung ist gerade in PLOS Computational Biology erschienen