Es ist heiß. Heiß und trocken. So trocken, dass es in Deutschland zu beträchtlichen Ernteausfällen kommt. Der Bauernverband fordert daher eine Milliarde Euro, um die Ernteausfälle auszugleichen.
Politiker vieler Parteien zeigen Sympathie mit den Landwirten. Auch die Grünen zeigen sich offen für eine Bauern-Nothilfe. Deren Franktionschef Hofreiter forderte ein grundsätzliches Umsteuern in der Landwirtschaft. Die Dürre müsse „ein Weckruf sein für einen grundlegenden Kurswechsel in der Agrarpolitik„, sagte der Grünen-Politiker in Spiegel Online.
Hofreiter sagt in dem Artikel:
Die industrielle Landwirtschaft kann nicht mehr weiter so wirtschaften wie bisher […] die Milliardengelder, die in die Landwirtschaft fließen, sollten in Zukunft nur noch an solche Betriebe gehen, die mit der Natur arbeiten.
Ich versuche diesen Satz zu verstehen. Mit der Natur arbeiten. Heißt das, die meisten landwirtschftlichen Betriebe arbeiten gegen die Natur? Ist die konventionelle Landwirtschaft schuld an der Dürre? Was würde passieren, wenn alle Bauern in Deutschland “mit der Natur” arbeiten würden? Würde dann Mutter Natur pünktlich Regenwolken schicken und so lokal weitere Dürren vermeiden?
Ich habe eine bessere Idee. Wie wäre es, wenn 20% der gewünschten Nothilfen für die Bauern in die Entwicklung dürreresistenter Nutzpflanzen investiert würde. 200 Millionen Euro für ein Forschungsprogramm für deutsche Universitäten und Institute, mit dem Ziel Getreide, Raps und Mais herzustellen, die vergleichbare Erträge abwerfen, aber bei wenig Regen besser überlebt.
Moderne molekularbiologische Methoden, wie das Gene-Editing mit CRISPR/Cas , bieten sich natürlich an, um die neuen Sorten gezielt, zügig, und günstig zu züchten. Das Förderprogramm könnte so gesteuert werden, dass neben den Unis und Forschungsinstituten auch kleine und mittlere Saatgutunternehmen profitieren, die die neu entwickelten Sorten zeitnah in Deutschland zur Marktreife bringen und gerne auch international verkaufen könnten.
Leider platzt der Traum schon heute. Die Gesetzgebung in Deutschland stellt ein langfristiges und flächendeckendes Anbauverbot gentechnisch veränderter Pflanzen sicher.Daunter fallen nach neuer Gesetzgebung auch Pflanzen, die durch Gene-Editing gezüchtet wurden.
Die in Deutschland mit deutschen Steuergeldern entwickelten Sorten dürften ohne hohe regulatorische Hürden nicht mal hier im Freiland getestet werden. Der weitere regulatorische Prozess, der für die Zulassung dieser Pflanzensorten notwendig würde, ist unabschätzbar hinsichtlich Zeitdauer und Ergebnis, so dass kleinere und mittlere Saatgutunternehmen schon aus reiner Risikokalkulation die Finger davon lassen werden.
Bleibt also die Erforschung der Sorten im Ausland und deren Zulassung durch die großen Agrarmultis. Das kann doch sicher nicht im Interesse der Grünen sein.
Oder vielleicht doch. So bleiben deren Feindbilder erhalten. Man kann die gleichen Grabenkämpfe wie bisher führen. Und die paar Wissenschaftlerinnnen und Wissenschaftler hier, die logisch versuchen zu argumentieren, die kann man schon im Vorfeld diskreditieren.
Lobbyistenpack.
Lance Armstrong hat vor fünf Tagen im Freakonomics-Podcast auf die Frage des Journalisten und Podcast-Gastgebers Stephen Dubner “Do you think you could have won any Tours de France without doping?” (min 13:15) geantwortet: “Zero percent chance” Das klingt nach einem Offenbarungseid für den Sport, der immer noch Millionen Zuschauer vor den Fernseher oder direkt an die Strecke lockt. Lance Armstrongs letzter Toursieg liegt 13 Jahr zurück, meine letzten Artikel zur Tour de France fünf Jahre. Zeit für ein Update. Kann man die Tour de France auch ohne Doping gewinnen? Armstrong bezieht die 0% Chance auf einen cleanen Tourgewinn auf das damalige Tourumfeld. Damals wurde systematisch und im gesamten Fahrerfeld gedopt. In den Top10 des Gesamtklassements von 2005 gibt es beispielsweise nicht einen Fahrer, der nicht nachgewiesenermaßen gedopt hat, bei Dopingärzten in Behandlung war, Dopingtests umgangen hat, dem Doping konkret vorgeworfen wurde oder der selbst zugegeben hat, gedopt zu haben. Wie sieht die Situation also heute aus? Zunächst: Kategorisch ausschließen, dass Fahrer auch dieses Jahr gedopt waren, kann wohl keiner. Um einen generellen Eindruck von der Sauberkeit der Tour zu bekommen, kann man sich aber die Leistungsdaten der Spitzenfahrer anschauen und prüfen, ob diese plausibel erreichbar sind.Plausibel heißt konkret: Wie viel Watt pro kg Körpergewicht Leistung bringen die Fahrer? Und sind diese Leistungen mit modernen Trainingsmethoden erreichbar?
Peter Sturm. Autor des Gastartikels.
Das kann Peter Sturm (Pseudonym) deutlich besser als ich. Deshalb hier sein zweiter Gastartikel bei WeiterGen. Peter Sturm ist Trainingsmethodiker. In den letzten 5 Jahren trainierte er bis zu 200 engagierte und erfahrene Sportler. Sein Trainingssystem erscheint in Kürze in Buchform. Sturm ist Trainer der Nachwuchshoffnung Jonas Rapp, der seit diesem Jahr für das österreichische UCI Continental Team Hrinkow Advarics startet und bei der diesjährigen internationalen Österreichrundfahrt gesamt zwölfter wurde. —Gastartikel—
Kann man die Tour de France auch ohne Doping gewinnen?
Das Thema ist auch fünf Jahre später noch aktuell. Aus meiner Sicht eindeutig ja. Wir schauen uns im Folgenden die Leistungsanforderungen an den potentiellen Toursieger 2018 an und ich zeige Ihnen anhand von tatsächlichen Trainingsdaten die Leistungsentwicklung von Jonas Rapp, der sich durch gezieltes Training vom Niveau eines A-Fahrers (Höchste deutsche Amateurklasse) zu einem möglichen Weltklasseprofi in der Kategorie Rundfahrer (vs. Allrounder, Sprinter) entwickelt hat. Um die Daten des Sportlers vergleichend zu analysieren, rechne ich die Leistungen bei der diesjährigen Tour auf sein RACE Gewicht von 71kg um.
Die Leistungsanalyse bei schweren Bergen auf der Tour
Am Mittwoch stand eine Bergetappe über gerade mal 65km mit 3000 Höhenmetern auf dem Programm. Auf Strava haben schon einige Sportler ihre Daten hochgeladen (leider z.T. ohne Wattangaben) und wir können die Leistungen der Klassementfahrer in der Gruppe um das gelbe Trikot mit einem Leistungsrechner (wie z.B. Kreuzotter.de) nachvollziehen. Länge und Durchschnittsteigungen habe ich analog zu den Strava-Segmenten einbezogen.
Nach dem Start ging es sofort in den Col de Peyresourde. Das Strava-Segment über 12,93km mit einer mittleren Steigung von 7,146% bedeutet für einen 71 kg schweren Fahrer mit 8 kg Ausrüstung, er müsste rechnerisch 385 Watt oder 5,36 W/kg leisten, um den Anstieg in der Gruppe der Spitzenfahrer zu absolvieren (37 min und 17 sek). Im Windschatten der Gruppe und mit besten Material (Reifen, Trikots etc.) können das aber auch nur 360 Watt und ca. 5,07 W/kg gewesen sein. Simon Geschke hat seine Wattdaten bei Strava hochgeladen und brauchte in einer Fluchtgruppe für 35min und 20 Sek. 348 Watt und somit bei einem Gewicht von 63 kg 5,53 W/kg. Hier errechnet Kreuzotter ca. 377 und somit 5,89 W/kg. Die Berechnung der Wattwerte nur anhand der physikalischen Werte, wie Gewicht von Fahrer und Ausrüstung, kann die tatsächliche Leistung (gerade in einer Gruppe) deutlich überschätzen. Je geringer die Steigung (und je höher die Geschwindigkeit), desto mehr profitieren die Fahrer vom Windschatten in einer Gruppe. Am zweiten Berg, dem Col de Val Louran-Azet wurde das Tempo dann in der Gruppe um das gelbe Trikot deutlich angezogen. Das Team AG2R und später auch Team Movistar sorgten mit ihren Helfern für eine Tempoverschärfung. Das mir vorliegende Stravasegment über 7,14km mit 8,29% führt Michal Kwiatkowski mit 20:58 an. Die Tempoverschärfung hat kurzfristig die sonst sehr geordneten Fahrer des Teams Sky ordentlich durcheinandergewirbelt. Für unseren 71 kg Fahrer errechnen wir 428 Watt oder 6,03 W/kg. Tatsächlich können es aber auch nur 408 Watt und 5,74 W/kg für den im Windschatten geschützten Fahrer in der Gruppe gewesen sein. Wir können aber davon ausgehen, dass während der Tempoverschärfung zumindest der Fahrer an der Spitze z.B. 6,1-6,2 W/kg gefahren ist. Das Tempo war zeitweilig so hoch, dass zumindest einige Helfer über ihrem Limit waren. Das war im Fernsehen sehr gut sehen. Dieser Gruppe gehörten am Ende noch ca. 15-20 Fahrer an, wobei einige Fahrer vorher in Fluchtgruppen unterwegs waren und im Anstieg aufgesammelt wurden. Den Schlussanstieg am Col du Portet habe ich handgestoppt und mir Zeiten für den Sieger Quintana von 49:39 und für das Gelbe Trikot von 50:25 notiert. Quintana mit 50kg leistete rechnerisch 312 Watt und somit 6,24 W/kg. Unser 71kg Fahrer würde hierfür 418 Watt und 5,88 W/kg benötigen. Die 8 kg Ausrüstung benachteiligen folglich den leichten Fahrer. Real wird die Leistung von Quintana vielleicht bei 6,0 W/kg gelegen haben. In der Gruppe um das gelbe Trikot hätte unser 71kg Fahrer rechnerisch 410 Watt leisten müssen und somit also 5,77 W/kg. Tatsächlich können es auch 390 Watt mit 5,5 W/kg gewesen sein. Ohne die genauen Wattangaben und ohne Angaben zum Gewicht des Fahrers sind wir auf Hochrechnungen angewiesen und müssen von den physikalischen Berechnungen einen Abzug für Windschatten/Material etc. machen. Hier wäre es sicherlich für die Transparenz eines sauberen Sports sicherlich wünschenswert, wenn alle Fahrer ihre Daten auf eine Plattform wie Strava hochladen würden. Die Etappe nach Alpe d Huez war deutlich länger und führte vor dem Schlussanstieg über zwei hohe und lange Berge. Der Schlussanstieg nach Alp d’Huez wurde handgestoppt in 41:10 gefahren und unser 71kg Fahrer hätte hierfür rechnerisch 410 Watt benötigt. Die relative Leistung von 5,77 W/kg (ohne Fehlerabzug) sollte man hier in die Gesamtbelastung der Etappe einordnen.
Auf dieser Etappe nach Alpe d Huez) hätte der 71kg Fahrer rechnerisch ca. 2600 kcal allein an den ersten beiden Anstiegen benötigt. Die relative Leistung am Col de la Madeleine betrug ca. 5 W/kg für 1h und 8 Minuten. Am Croix de Fer waren es noch 4,6 W/kg für eine Stunde. Die Profile waren flacher, der Windschatten müsste also noch berücksichtig werden, ein Abzug von 200 kcal und somit ein Energieverbrauch von 2.400 kcal bildet die Belastung vermutlich besser ab. Ein Fahrer wie Quintana spart hier durch sein geringes Körpergewicht ca. 750 kcal im Anstieg dieser beiden Berge gegenüber seinen 20 kg schweren Konkurrenten ein. Das entspricht 183 gr. Glykogen. Wenn man berücksichtigt, dass Sportler maximal 700 gr. Glykogen in der Muskulatur und Leber speichern können, sind 183 gr. Ersparnis natürlich relevant. Quintana hat auf der Kopfsteinpflasteretappe am Ende der ersten Woche gegenüber seinen Konkurrenten keine Zeit verloren, aber wir dürfen davon ausgehen, dass er viel Substanz eingebüßt hat. Ein leichter Fahrer hat auf schnell gefahren und windanfälligen Etappen deutliche Nachteile. Während unser 71kg Fahrer 330 Watt noch im Grundlagenbereich fahren kann, wird unser Bergfloh hier schon stark gefordert. Wir können also unterstellen, dass bei gleicher relativer Leistung, der schwerere Fahrer bei dieser Tour frischer in die zweite Woche gegangen ist, als sein leichtgewichtigerer Konkurrent. Quintanas Leistung am Mittwoch deutet darauf hin, dass leichtere Fahrer dann in den Bergen insgesamt weniger belastet sind (Energieverbrauch) und so eher noch am Schlussanstieg ihre Leistungen abrufen können. Das ist natürlich spekulativ und lässt das Rennprogramm außen vor; Froome und Dumoulin sind den Giro d‘ Italia gefahren, Quintana und Thomas nicht. Am Freitag bei der letzten Bergetappe büßte Quintana Zeit ein. Der Einbruch kann auf einen Infekt oder zum Beispiel eine Magenverstimmung hindeuten. Die dritte Woche einer Grandtour führt alle Fahrer an ihre Grenzen und ob ein Fahrer dann von Tag zu Tag die Leistung halten kann, zeigt sich erst in der Rundfahrt. Welche Rückschlüsse lassen sich ziehen? Die Spitzenfahrer müssen auch noch nach langen harten Etappen in der Lage sein ca. 5,6-5,7 W/kg am Schlussanstieg abrufen zu können. Auf kürzeren harten Etappen können das am Schlussanstieg auch 6,0 W/kg sein. Leichte Fahrer müssen bis zu 0,35 W/kg mehr leisten können als Fahrer, die 20 kg schwerer sind. Dafür benötigt der schwerere Fahrer aber auch ca. 100 Watt mehr Leistung (ungefähr 360 kcal/h). Wir sehen, die Konkurrenz einer Tour ist äußerst komplex. Die Ergebnisse der letzten Jahre beim Giro und der Tour deuten darauf hin, dass Rundfahrer wie Dumoulin oder Froome mit Körpergewichten leicht unter 70 kg zumindest nicht benachteiligt sind. <h2>Die Anforderungen an die Fahrer</h2> Der Sportler benötigt eine hohe maximale Sauerstoffaufnahme (VO2max) bezogen auf sein Körpergewicht und muss durch Training einen möglichst hohen Anteil der VO2max in Zeiträumen von 5-60 Minuten abrufen können, also der Dauer der Anstiege bei der Tour de France. Um das auch im späteren Verlauf einer Etappe zu können, sollte der Fettstoffwechsel des Sportlers möglichst gut trainiert sein, um die Glykogenspeicher der Muskulatur zu schonen. Die VO2max, die Dauerleistungsschwelle (CP, MLSS) und der Fettstoffwechsel stehen also im Fokus des Trainings für Fahrer, die sich auf Rundfahrten oder schwere Eintagesrennen vorbereiten. Nun kenne ich nicht im Detail das Training von Froome, Dumoulin, oder Thomas. Ich trainiere aber seit Januar 2015 das Nachwuchstalent Jonas Rapp. Jonas konnte in dieser Zeit seine Stundenleistung von 330 Watt auf 430-440 Watt steigern. An seinem Beispiel möchte ich zeigen, wie das Training eines Rundfahrers aussehen kann, um in der Spitzengruppe mithalten zu können. Jonas hat bei einem Gewicht von 72kg einen Körperfettanteil von über 10%. Sein Wettkampfgewicht ohne Leistungsverlust (Körperfettanteil von 8%) könnte also mit 70,4 kg angenommen werden. Er entspricht damit ziemlich genau unserem Vergleichsfahrer mit 71 kg Körpergewicht. <h3><b>Anforderungen an den Fettstoffwechsel</b></h3> Kommen wir zurück auf die 2400 kcal (nach Fehlerabzug), die ein 71 kg Fahrer allein auf den ersten beiden Anstiegen der Etappe nach Alpe d‘ Huez verbrennt. In Studien wird die Fettflussrate von Ausdauersportlern in Abhängigkeit zu ihrer VO2max dargestellt. Je nach Trainingszustand kann die Fettflussrate ihr Maximum zwischen 65-70% der VO2max erreichen. Nehmen wir an, unser 71 kg Fahrer hat im Bereich von 350 Watt einen Anteil der Fette am Energieverbrauch von 45%, dann muss er 61 g aus seinen Speichern pro Stunde zusteuern. Er hätte also ca. 120 g für die ersten beiden Anstiege aus seinen Speichern gezogen. Im Rechner unterstelle ich bei hochtrainierten Sportlern eine Effizienz von 25% und nehme hier mal an, der Sportler hat seine Kohlenhydrataufnahmefähigkeit auf 100 g pro Stunde maximieren können. 80 g pro h im Mix von Fructose mit kurz und langkettigen KH gelten als gesichert für jedermann. Die Fettflussrate von 0,97 g/min zeigt uns, dass der Fettstoffwechsel hier schon auf hohem Niveau läuft. Mit 350 Watt liegt die Leistung genau zwischen 65% und 75% der VO2max. Ein Bereich, in dem der Fettstoffwechsel noch maßgebliche Anteile zur Leistung beisteuern kann. Wir sehen also, die 750 kcal, die Quintana durch sein geringes Gewicht rechnerisch weniger verbraucht, kann der schwerere Fahrer kompensieren, wenn er über einen guten Fettstoffwechsel im Bereich um 5 W/kg verfügt. Der schwere Fahrer wird tendenziell mehr Glykogen (da mehr Muskelmasse) einlagern können als der leichtere Fahrer und würde hier den Vorteil des leichteren Fahrers wieder teilweise ausgleichen können.
Intensives Fettstoffwechseltraining
Jonas typische Trainingseinheiten beinhalten z.B. 3x15min mit 370-380 Watt und am Ende (jenseits von 3000 kcal) noch 10-12 min Intervalle um 410-420 Watt. Eine andere Einheit stellt die 430 Watt Intervalle nach vorn und erst am Ende sind die längeren 380 Intervalle zu fahren. Obige Einheit ist Jonas am 28.6 gefahren. Er startete mit 2×10 min mit einer Anfangsleistung von 500 Watt für die ersten zwei Minuten und sollte dann spielerisch in den „Streckenschlag“ gehen. In den folgenden 2x12min hat er Tempoerhöhungen über die Trittfrequenz und 6 Sekundensprints eingebaut. In der zweiten Hälfte kamen noch 3x15min um 380 Watt hinzu.
Am 21.6. fuhr Jonas die Einheit anders rum. Zuerst die 370-380 Watt Intervalle und dann Intervalle um 410 Watt gegen Ende der Einheit mit schon gut geleerten Glykogenspeichern. Wir sehen, dass die 410 Watt über 24 min ihn ca. 600 kcal gekostet haben. Er hat hier seine Speicher schon fast leergefahren und musste dann das letzte Intervall frühzeitig abbrechen, um nicht komplett leer zu fahren.
410 Watt in der letzten Stunde einer 4 Stunden Einheit zu fahren, ist natürlich anspruchsvoll. Auch für den Kopf des Sportlers ist es gut, die Einheiten dann auch mal wieder umzudrehen und die härteren Intervalle am Anfang mit noch vollen Speichern zu fahren. Wir zielen hier genau auf den Fettstoffwechsel zwischen 380 und 420 Watt und setzen mit dem Wettkampfgel Reize auf den Kohlenhydratstoffwechsel, den Fettstoffwechsel und die Größe seiner Glykogenspeicher. Wir trainieren also aktuell schon seine Fähigkeit auch am Ende einer langen Trainingseinheit mit deutlich reduzierten Speichern Leistungen um 5,7-5,9 W/kg abzurufen.
VO2max Training
Das Vo2max Training wird in vielen Studien unter dem Begriff „High Intensity Training“ untersucht. Im Prinzip kann eine Einheit die relative Vo2max um einen halben Punkt erhöhen. Theoretisch. Im Radsport wurde der Bereich für das Vo2max Training vor 5 Jahren noch mit 105-120% der FTP (Stundenleistung) angegeben. Läufer hatten für dieses Training schon seit Jahrzehnten genaue Tempotabellen, die sich z.B. an ihrer 10.000 Meter Zeit orientierten. VO2max Training kann nur dann in der Mehrjahresperiodisierung erfolgreich umgesetzt werden, wenn eine exakte Belastungssteuerung erfolgt und der Sportler mitdenkt. Hottenrott zeigte 2012 mit einer groß angelegten Studiemit über 750 Breitensportlern, dass Vo2max Training zum größten Leistungsfortschritt führt, die Sportler aber nur bedingt über längere Zeiträume für dieses Training zu gewinnen sind. Man geht zum Zahnarzt, damit mit man auch morgen noch in den Apfel beißen kann. Aber der Besuch wird weh tun. So ist das auch mit dem Vo2max Training. Ich muss dieses Training als Trainer so einbinden, dass mir die Zustimmung des Sportlers oder der Sportlerin erhalten bleibt. Das kann mir nur gelingen, wenn ich dieses Training sehr genau steuere und sehr sensibel auf das Feedback des Sportlers reagiere. Basierend auf dem Modell von Monod-Scherrer (1965) gebe ich meinen Sportlern Tempovorgaben für die wichtigsten Intervallbereiche. Die Bereiche werden durch die CP und die W des Sportlers bestimmt. Die Stundenleistung zur Orientierung ist hier nicht zweckmäßig, weil Fahrer mit der gleichen Stundenleistung durchaus unterschiedliche anaerobe Kapazitäten haben können. Der Fahrer mit der eher hohen W wird deutlich höhere Werte im Bereich der 4 min Intervalle fahren können und muss dafür dann deutlich niedrigere Wattwerte für die 8 min Intervalle nehmen. Wenn ich herausfinden will, wie bei einem Sportler in etwa die Verteilung seiner CP/W ist, lasse ich ihn 2-3 Intervalleinheiten mit 4 und 8 Minuten Länge fahren. Zur Bestätigung dann z.B. den 12 Minutentest. Das Chart stützt sich auf die Zoneneinteilung nach Coggan. Den VO2max-Bereich lassen wir aber bei 105% der Critical Power beginnen und wir haben Coggans Zone 5 mit 105-120% der FTP unterteilt in die Zonen 5a-5f. Sie können hier Ihre eigenen Parameter eingeben. Die Sportler fahren diese Intervalle in einem Fenster von einem Verbrauch der anaeroben Kapazität von 40-60%. Ausgehend von den Beobachtungen und der Analyse von mehreren hundert Sportlern konnten wir folgern, dass der Sportler bei einem Verbrauch von ca. 55% seiner anaeroben Kapazität (W) seine Vo2max erreicht, er also unter Volllast seines aeroben Systems arbeiten muss. Die nachfolgende Darstellung zeigt wie unser aerobes System an die Vo2max geführt wird, hier in Abhängigkeit der Intensität und der Intervalllänge. Die Vorgabe im Intervall wird so gewählt, dass am Ende des ersten Intervalls ca. 55% der W verbraucht sind. Wir können also eine Intensität wählen, mit der wir die Vo2max triggern können und somit können wir auch die relative Vo2max ziemlich genau rechnerisch bestimmen.
In den Folgeintervallen erreicht der Sportler durch das Pausenregime immer früher die Vo2max. Bei 4×8 min trainiert der Sportler vielleicht 16-17 min an der Vo2max plus weitere Minuten in dem ebenfalls wirksamen Bereich von 90-100 Prozent der Vo2max. Aus den Beobachtungen wissen wir, dass Sportler, die übermotiviert diese Intervalle fahren und z.B. am Intervallende noch sprinten, deutlich längere Regenerationszeiten benötigen. Werden nun weitere Einheiten in der gleichen Trainingsphase deutlich übersteuert, kann sich ein sympathisches Übertraining etablieren. Der Fahrer „schießt sich ab“. Der Sportler sollte die Freigabe seines Kardiologen haben und er braucht den richtigen Tag für dieses Training und einen kühlen Kopf, um im Zweifel nach dem ersten Intervall oder nach dem Warmfahren abzubrechen, wenn das Körperfeedback dazu rät. Wenn alles passt, dann heißt es „never ever waste your hammertime“. Für die Entwicklung eines Sportlers ist diese Zone ausschlaggebend.
Die Umsetzung der Theorie bei Jonas Rapp
Jonas Rapp bei der Österreichrundfahrt. Bild: Reinhard Eisenbauer (http://www.eisenbauer.com) Talente reagieren auf so ziemlich alle Reize mit einer starken Leistungsentwicklung. Auch Jonas hatte schon eine relative VO2max von mehr als 70 als wir mit dem Training starteten. Aber um in seinen Fall von 72 auf 89 Punkte zu kommen, waren drei Jahre hartes Training erforderlich. Jonas steigerte mit Serien von 2x (3x8min) in Zone 5a seine Critical Power von 320 auf 390 im ersten Jahr. Jeder, der solche Intervalle im Training schon mal gefahren ist, weiß, wie stark man im Kopf sein muss, um nach der ersten Serie noch eine zweite Serie folgen zu lassen. Berücksichtigen wir, unter welchen zeitlichen Bedingungen Jonas dieses Level erreicht hat, bekommen wir einen Ausblick auf das Potential dieses Sportlers. Jonas hat Abitur gemacht und im Anschluss eine Ausbildung, die er Ende Januar 2018 abgeschlossen hat. Ich kenne viele Hobbysportler, die mehr Zeit für das Training hatten als Jonas. Er kam oft gegen 19Uhr nach Hause und hatte den ganzen Tag gestanden und konnte dann abends nicht immer die geplanten Einheiten fahren. Seine Jahreskilometer lagen in den letzten Jahren um 20.000. Für 2018 haben wir den Fokus darauf gerichtet, Jonas mehr Substanz für lange Rennen mitzugeben, so dass er auch am Ende einer Etappe seine Leistungen abrufen kann. Einige Einheiten habe ich euch ja schon vorgestellt. Jonas ist die Saison auf einem konstant hohen Niveau gefahren. Nach einer Erkältung in Folge einer kurzen und nasskalten Rundfahrt im Frühjahr musste er zehn Tage pausieren und konnte trotzdem nach 14 Tagen Training am 4.Tag einer Rundfahrt im Bergzeitfahren schon wieder über 25 min 441 Watt abrufen. Bei einem Bundesligarennen (!) in Österreich musste er in einer Situation 507 Watt über 5 min. aufbringen, um mit den Topfahrern nach vorn zu fahren. Wenn ich die beiden Renndaten in das Modell von Monod-Scherrer einpflege, kommt eine Stundenleistung von 430 Watt raus. Anfang Juli ist Jonas die internationale Österreichrundfahrt gefahren. Acht schwere Tage in Folge und wir hatten nicht wirklich erwartet, dass Jonas in der Summe nur 3 Min verliert und somit bei seiner ersten schweren Landesrundfahrt auf das Gesamtklassement fahren kann. Jonas ist zuvor nie lange Alpenpässe gefahren. Er kannte weder das Kitzbüheler Horn noch den Großglockner. Jeder Rennfahrer weiß, wie wichtig es ist, Berge vorab im Training am besten mehrmals gefahren zu sein. Leider fehlen Powermeterdaten vom Kitzbüheler Horn, weil Jonas hier mit Kompaktkurbel gefahren ist. Leistungsdaten von Jonas Rapp. Er ist nach fünf harten Tagen den Großglockner von unten bis oben eine Stunde mit 396 Watt gefahren. Dabei leistete er 403 Watt ab der Mautstation und auch über 2000 m Höhe noch konstant 15min mit 398 Watt. Die 408 Watt Durchschnitt in den letzten 4 Minuten zeigen, dass er sich vorsichtig gepaced hatte. Rennen kann man nicht am Rechner gewinnen. Aber Jonas hat bei den beiden Bergankünften gerade mal etwas mehr als eine Minute auf den führenden Fahrer verloren. Das entspricht etwa dem mitführen von 2kg Gewicht. Diese zwei kg Ersparnis wären auch dieses Jahr schon möglich gewesen (Körpergewicht/Ausrüstung). Jonas ist die Rundfahrt aber nicht in Topform gefahren. Nur in den großen Profiteams, können die Sportler sich auf die Saisonhöhepunkte mit längeren Trainingsblöcken und Höhentraining vorbereiten. In den UCI-Continentalteams fahren die Sportler ihren Kalender runter und müssen schauen, dass sie von Rennen zu Rennen kommen. Wenn dann noch eine Erkältung da Zwischen kommt, werden die Vorbereitungsfenster kleiner. Bei der Tour de France sind die Bergetappen eher länger aber es gibt selten mehr als 3 Etappen für Classementfahrer am Stück. Kürzere Etappen werden mit einer höheren Intensität gefahren. Auf den hügeligen oder flachen Etappen fahren Fahrer wie Jonas mit Leistungen, die eher im Regenerationsbereich liegen. Bei der Österreichrundfahrt hatte jede Etappe mehr als 2000 Höhenmeter und wurde hart gefahren. Vorsichtig geschätzt, liegt Jonas mögliche Topform bei optimaler Vorbereitung und mit Höhentraining bei circa 450 Watt für Zeitfenster von 20-40 Minuten.
Welche Leistungsfähigkeit braucht ein Toursieger?
Aus meiner Sicht braucht ein Tour de France Sieger eine relative Stundenleistung von ca. 6,3-6,5 W/kg, um in Rennen wie vergangenen Mittwoch noch am letzten Berg 6 W/kg abrufen zu können. Für den Sieg am Mittwoch hätte rein rechnerisch ein 50 kg Fahrer wie Quintana 6,24 W/kg, ein 62kg schwerer Fahrer 6,02W/kg und ein 71kg schwerer Fahrer 5,88 W/kg benötigt. 6,3 W/KG könnten also für einen 71kg Fahrer durchaus bedeuten, dass er bei einer Grandtour zumindest um das Klassement mitfahren kann. Die Grandtour gewinnt aber nicht unbedingt derjenige, mit dem besten relativen Leistungsgewicht, sondern der, von seinem Leistungsprofil am besten mit dem Profil der Rundfahrt harmoniert. Beim Giro gibt es viele Zeitgutschriften für kurze Schlussanstiege bei gefühlt jeder zweiten Etappe. Hier haben explosive Fahrer Vorteile. Wenn dann aber Froome mitten in einer Etappe (19.) an einem Anstieg (Col del Finestre) mit 5,9 W/kg über eine Stunde alle Verfolger abschütteln kann, sieht man, dass richtiges Training und Umsetzung gerade in der dritten Woche einer Grandtour entscheidend sein können. Froome hat sich hier von Helfern alle 1-2km Flaschen reichen lassen und nach dem Trinken fallen lassen um Gewicht zu sparen. Ein Killogramm weniger Gewicht weniger machen an so einem Berg 30 Sekunden aus. Jonas Rapp kam mit einer fast vollen Flasche am Kitzbüheler Horn an. Er (Originalton) ..hatte dann oben wenigstens schon was zu trinken.
Kann man ohne Doping die Tour gewinnen?
Nach 3,5 Jahren des Privilegs eines der größten deutschen Radsporttalente trainieren zu dürfen, würde ich das ganz klar mit ja beantworten. Ob Jonas die Tour gewinnen kann? Von 8 harten Tagen am Stück bei der Österreich Rundfahrt auf eine Grandtour zu schließen, ist schwierig. Wer aber auf seiner ersten schweren Landesrundfahrt nur 3 Min. auf den Sieger verliert, ist ein Rundfahrer mit Potential. Jonas fährt für das Team Hrinkow Advarics. Das Team hat ihn bei den Rundfahrten 2018 super unterstützt. Die Teamphilosophie steht für sauberen Radsport. Seine Leistungsentwicklung ist dokumentiert; hier gibt es nur Anpassungen an harte Reize und ein großes Talent. Anpassungen des aeroben Systems über mehrere Jahre erfordern ein Reizsystem, dass auch hochintensive Reize immer wieder in der Mehrjahresplanung berücksichtigt. Sind aus meiner Sicht Leistungen um 6,3-6,5 W/kg pro Stunde ohne Doping möglich? Ja, das würde ich unterstreichen. Sind alle Sportler sauber, die 6,3-6,5 W/kg leisten? Das würde ich mir wünschen. Dumoulin und Froome fahre beide das Double Giro und Tour auf hohem Niveau. Das geht nur, wenn das Basislevel sehr hoch ist und das spricht aus meiner Sicht dafür, dass der Sportler davon ausgehend in Höchstform auch Topleistungen erbringen kann – ohne Doping. Bei der Tour 2018 habe ich keine Leistungen gesehen, die man mit einem Fragezeichen versehen müsste. Jonas Rapp bei einer Ankunft einer Bergetappe Bild: Reinhard Eisenbauer (http://www.eisenbauer.com)
Vor zwei Wochen fand der zweite March for Science statt. Es waren viel weniger Teilnehmer als beim ersten Mal. Vielleicht lag es daran, dass man sich immer noch nicht einig war, worum es eigentlich beim March for Science in Deutschland gehen soll.
Geht es um den Kampf gegen “Alternative Fakten”, geht es um die bessere Kommunikation von Forschungsergebnissen in die Gesellschaft, geht es um die Verbesserung der Arbeitsbedingungen der Angestellten im Wissenschaftsbetrieb, oder doch um etwas ganz anderes.
Eins hat der March for Science jedoch schon letztes Jahr gezeigt: Wissenschaftlerinnen und Wissenschaftler haben auch eine Stimme und können sich Gehör verschaffen – wenn sie denn wollen.
Es muss nicht jedes Mal eine Demo sein. Die Soziale Medien bieten deutliche niedrige Eintrittshürden um ein rationales Weltbild zu verteidigen. Aktuell finden zum Beispiel auf Twitter zwei Diskussionen statt, die deutlich machen, wie wichtig es ist, dass Menschen, die logisch argumentieren und deren Meinungen auf wissenschaftlichen Daten fußen, sich zu Wort melden.
Die Deutsche Homöopathie-Union, ein in Karlsruhe ansäßiges Unternehmen mit 100 Mio EUR Umsatz hat den Hashtag #MachAuchDuMit ins Leben gerufen, um auf die angeblichen Vorzüge der Homöopathie hinzuweisen.
Der Hashtag wurde von Menschen mit wissenschaftlicher Vorbildung regelrecht gekapert. Es ist der aktuelle Höhepunkt einer schon seit Monaten andauernden Debatte auf Twitter, die unter anderem zum Ziel hat die gesetzlichen Krankenkassen davon zu überzeugen, keine Leistungen zu erstatten, die erwiesenermaßen wirkungslos sind.
#MachAuchDuMit, und schreibe deiner Krankenkasse, dass du auf Homöopathie-Erstattung keinen Wert legst und lieber Zuschüsse für tatsächlich wirksame Maßnahmen, wie z.B. Brillen, hättest.
Ich bin jahrelang auf die #Homöopathie reingefallen, hab jede Kritik als lächerlich dargestellt und nicht gemerkt wie lächerlich und falsch genau das ist. Homöopathie ist keine wirksame Arzneitherapie, sie ist ein Placebo wie Heile-heile-Segen und Aua-Wegpusten. #MachAuchDuMit — Natalie Grams (@nataliegrams1) April 25, 2018
Ralf Reski, Professor für Pflanzenbiotechnologie an der Uni Freiburg und Professor Detlef Weigel vom Max-Planck-Institut für Entwicklungsbiologie in Tübingen tauschen sich seit Wochen auf Twitter mit verschiedenen Politikerinnen und Politikern der GRÜNEN über Pflanzengentechnik aus. Beide Wissenschaftler wünschen sich eine auf wissenschaftlichen Erkenntnissen basierende Diskussion der Chancen und Risiken des Einsatzes der Grünen Gentechnik in der Landwirtschaft.
Der Austausch findet leider nicht auf Augenhöhe statt. Die Fragen und Argumente der Wissenschaftler, die zum Teil unter dem Hashtag #Gentechnikwende laufen, bleiben unbeantwortet oder werden bestenfalls mit Scheinargumenten erwidert. Es wäre einfach, die Positionen der GRÜNEN mit Unwissenheit zu entschuldigen. Es ist aber längst klar, dass die GRÜNEN wider besserem Wissens bewusst Fakten ignorieren, um ihre Lobby- und Agendapolitik zu betreiben.
Yup, das behaupten die Klimawandelleugner auch. Bitte nennen Sie mir Ernst zu nehmende wissenschaftliche Studien aus hochqualitativen peer review Zweitschriften. https://t.co/c7PZBcMK55 — Weigel Lab (@PlantEvolution) April 16, 2018
Dieser Artikel erschien zuerst im Jubiläumsblog 10 Jahre Scienceblogs.
Wenn Juristen, Philosophen und Theologen im Ethikrat über die Zukunft meiner Forschungsdisziplin entscheiden wollen und dabei jegliche Pragmatik vermissen lassen. Wenn Journalisten vor lauter neutralem einerseits – andererseits den ihnen bequemen Meinungen soviel Gewicht einräumen wie fundierten wissenschaftlichen Ergebnissen, dann macht mich das wütend.
Als Ende 2007 so über die Zukunft der Stammzellforschung in Deutschland diskutiert wurde, machte mich das so wütend, dass ich entschied, mich nicht nur über Artikel in Zeitungen zu ärgern, sondern meinem Ärger Luft zu verschaffen und in Form eines Blogs dagegen anzuschreiben. Ironisch, manchmal zynisch, aber immer aus der Sicht eines tatsächlich forschenden Wissenschaftlers.
Ich traf mit meinen ersten Schreibversuchen offenbar Ton und Thema und drei Monate später zog mein noch junges Blog zu den ScienceBlogs um und WeiterGen war geboren. Rekrutiert worden bin ich damals übrigens von Beatrice Lugger. Die damalige Chefredakteurin der ScienceBlogs ist eine der Ausnahmefiguren in der deutschsprachigen Wissenschaftskommunikationszene – und das schreibe ich nicht, weil sie akutell als Direktorin am NaWik meine direkte Vorgesetze ist (mehr davon später).
Es folgten Jahre produktivsten Schaffens. Tags wurde im Labor geforscht und abends, oft bis spät in die Nacht, wurde für WeiterGen recherchiert, geschrieben, kommentiert und publiziert.
Der Mischung der Frustrationen aus nicht funktionierenden Experimenten im Labor, abgelehnten wissenschaftlichen Veröffentlichungen und die meinen Wissenschaftsalltag charakterisierende fehlende Unterstützung durch Vorgesetze, stand etwas Positives gegenüber: Ich bekam meine regelmäßige Dosis Glückshormone durch die Publikation meiner Artikel im Blog, durch die lebhaften Diskussionen in den Kommentarspalten und durch den täglichen Blick auf meine Leserzahlen in Google Analytics.
Meine Texte wurden durch viel üben besser, ich wurde als Blogger zu Konferenzen eingeladen: Dem EMBO-Meeting und – auch wieder katalysiert durch Kontakte von Beatrice Lugger – zu mehreren Lindau Nobel Laureate Meetings; und ich bekam ein Angebot, bei einem renommierten Verlag ein populärwissenschaftliches Buch zu veröffentlichen.
Zu letzterem sollte es nie kommen. Der Buchvertrag und der Wunsch, mehr Blogartikel zu schreiben, fiel meiner damaligen Entscheidung zum Opfer, mich auf meine akademische Laufbahn zu konzentrieren. Eine Fehlentscheidung, wie sich herausstellen sollte. Zwei Jahre später, mit neun Papers aus dem Postdoc, und nach Bewerbungen an Unis und Instituten weltweit, hatte ich immer noch keine Stelle als unabhängiger Forschungsgruppenleiter.
Ich entschied mich für einen Richtungswechsel. Mein trotziger Gedanke war: Wenn ich nach zehn Jahren Wissenschaft, also vier Jahren Doktorarbeit und fast sechs Jahren Postdoc, den nächsten Schritt nicht komfortabel gehen kann, dann mache ich eben etwas anderes.
Ich hatte Angst vor dem Schritt ins Ungewisse, aber ich hatte ein Leitmotiv: Durch meine Erfahrung mit dem Bloggen wusste ich: Es wird irgendwas mit Wissenschaftskommunikation.
Ich gründete ein Software-Startup, mit dem wir Wissenschaftler halfen, mit der aktuellen und jeweils relevanten Fachliteratur auf dem aktuellen Stand zu bleiben. Ich gründete eine Agentur für Wissenschaftskommunikation mit Spezialisierung auf Kommunikation für große, internationale Forschungsprojekte. Ich fing an, Workshops für Wissenschaftler zu geben. Und ich nahm vor knapp drei Jahren das Angebot an, am Nationalen Institut für Wissenschaftskommunikation (NaWik) in Karlsruhe zu arbeiten.
Aus meiner Leidenschaft ist also in den letzten zehn Jahren mein Beruf geworden, und aus Beatrice Lugger, der Person, die mich damals zu den ScienceBlogs geholt hat, ist meine Vorgesetzte und Mentorin geworden. Ohne WeiterGen wäre ich nie da gelandet wo ich jetzt bin.
Ich sollte ScienceBlogs dankbarer sein und wieder mehr Artikel schreiben. An möglichen Themen mangelt es wahrlich nicht. Ich mache mich auf die Suche nach der Zeit, die ich vor zehn Jahren dafür gefunden habe.
Wissenschaft im Dialog hat vorvergangene Woche das vierte Wissenschaftsbarometer publiziert. Das Wissenschaftsbarometer ist eine repräsentative Bevölkerungsumfrage zur Wahrnehmung von Wissenschaft in der Gesellschaft. Insgesamt wurden für die Umfrage 1007 Personen telefonisch befragt. Wissenschaft im Dialog hat die Ergebnisse sehr schön aufbereitet und zum Download zur Verfügung gestellt.
In der Datei mit den detaillierten Ergebnissen (pdf) werden die 1007 Befragten weiter aufgeschlüsselt: Nach Wohnort, Haushaltsgröße, Einkommen, Alter, Schulbildung, Parteivorlieben, und so weiter.
Die angerufenen Teilnehmer wurden auch nach Ihrem Berufsfeld gefragt. 78 der Befragten gaben an, in Wissenschaft und Forschung zu arbeiten und 77 sagten, früher in Wissenschaft und Forschung gearbeitet zu haben (844 nicht). Wäre es nicht interessant zu sehen, in wie weit die befragten Wissenschaftlerinnen und Forscher die Lage zur Wahrnehmung ihres Berufsfeldes in der Bevölkerung anders einschätzten als der Rest?
Ich bin der Frage nachgegangen und habe hier die interessantesten Ergebnisse der detaillierten Aufschlüsselung des Datensatzes zum Wissenschaftsbarometer 2017 zusammengetragen. Meine Auswertung ist wegen zum Teil fehlender statistischer Signifikanz nicht ganz ernst gemeint.
Wissenschaftler sind an allem interessiert – nur nicht an Wirtschaft und Finanzen
Zunächst geht es um generelle thematische Interessen, und da wird klar, dass Wissenschaftler mannigfach interessiert sind. Natürlich an Wissenschaft, aber sowohl für Politik, Kultur als auch Sport haben prozentual mehr Wissenschaftler gesagt, sehr oder eher großes Interesse zu haben als der Rest der Befragten.
Nur an Themen zu Wirtschaft und Finanzen ist das Interesse der Wissenschaftler im Vergleich zu den nicht- oder nicht mehr Wissenschaftlern niedriger. Das verwundert wenig. Es gibt etliche Wissenschaftler, die nicht ohne Stolz auf ihren Beitrag zur reinen Grundlagenforschung verweisen, und die Fragen nach dem wirtschaftlichen Nutzen Ihrer Forschung mit Schulterzucken beantworten.
Vielleicht auch deshalb verdienen viele Wissenschaftler so wenig, dass sich die Frage nach dem Wohin mit dem Geld gar nicht stellt. Warum sollte man sich mit Finanzthemen beschäftigen, wenn das eigene Gehalt durch Miete und Lebenshaltungskosten komplett aufgezehrt wird? Interessen der im Wissenschaftsbarometer befragen Teilnehmer. Quelle: Wissenschaft im Dialog/Kantar Emnid, CC BY-ND 4.0
Wie funktioniert eigentlich Wissenschaft und was machen Wissenschaftler den ganzen Tag?
Was bei der Analyse der detaillierten Ergebnisse weiter auffällt, ist die mangelnde Kenntnis der Bevölkerung, was Wissenschaft eigentlich ist und wie der Alltag vieler Wissenschaftler aussieht.
Auf die Frage, was es heißt, wissenschaftlich zu forschen, beschreiben die befragten Wissenschaftlerinnen und Wissenschaftler ihre Arbeit: Ideen haben, Probleme erkennen und analysieren, Thesen oder Theorien aufstellen und sie verifizieren, beobachten, prüfen, Zusammenhänge sehen, Erkenntnisse gewinnen.
Davon weiß ein Teil der Bevölkerung wenig. 30% der befragten Nichtwissenschaftler gaben an, nicht zu wissen oder keine Angaben machen zu wollen oder können, was es heißt etwas wissenschaftlich zu erforschen (Seite 269-270).
Auch bei der Fragen, welche Fähigkeiten man als Wissenschaftlerin mitbringen muss gibt es Diskrepanzen zwischen aktiven Forschern und der Bevölkerung. Zusammengefasst meinen Wissenschaftler, dass Intelligenz, Neugier und allgemeines Wissen weniger wichtig sind, als die befragten Nichtwissenschaftler glauben.
Ausdauer, Geduld und Hartnäckigkeit hingegen werden von Wissenschaftlern als wichtige Fähigkeiten beschrieben, als sie in der Gesellschaft wahrgenommen werden. 25% der Wissenschaftler meinen, Kreativität sei eine wichtige Fähigkeit.
Nur 4% der Nichtwissenschaftler schreibt diese Eigenschaft Wissenschaftlern zu.Laien und Experten sind sich Immerhin einig, dass Fachwissen und eine gute Ausbildung für Wissenschaftler benötigte Fähigkeiten sind (Seite 279).
Man kann diese Ergebnisse als einen Hinweis an die Kommunikation von Wissenschaft interpretieren. Es geht offenbar nicht nur darum, was Wissenschaftler machen, sondern auch wie Wissenschaft funktioniert. Es reicht nicht, wissenschaftliche Ergebnisse so aufzubereiten, dass sie für die Gesellschaft verständlich werden. Es geht auch darum, den Prozess des Forschens, sowie die wissenschaftliche Methode (mit) zu kommunizieren.
Vielleicht nimmt dann die Bevölkerung die Wissenschaft als weniger bedrohlich war – 45% der befragten Nichtwissenschaftler gab an, dass sich durch Wissenschaft und Forschung die Lebensbedingungen zu schnell ändern würden (Seite 195).
Wissenschaftler müssen dann auch nicht mehr zynisch verbergen, dass Intelligenz bei der Ausführung Ihres Berufs eine wichtige Rolle spielt.
Besonderheiten bei Anhängern von SPD und AfD
Heute ist ja Bundestagswahl. Ich habe deshalb auch überflogen, ob die Aufschlüsselung nach politischen Parteien, ungewöhnliche Antwortmuster ergeben. Das Wissenschaft mehr schadet als nützt glauben zum Beispiel 6% der befragten Wissenschaftler. Bei Nichtwissenschaftlern sind es 13%. Fast ein Viertel (24%) der befragten Personen, die sich der SPD zuordnen gaben an, das Wissenschaft mehr schadet als nützt (Seiten 179,180).
Dass die Menschen zu sehr der Wissenschaft und zu wenig dem Glauben und Ihren Gefühlen vertrauen, denken 28% der befragten Wissenschaftler. 45% derer, die sich als sehr oder eher religiös bezeichneten stimmten der Aussage zu. Die Anhänger einer Partei überboten diesen Wert noch locker. Menschen vertrauen zu sehr der Wissenschaft und zu wenig dem Glauben oder Ihren Gefühlen gaben 57% der AfD Wähler an (Seiten 204, 205).
In diesem Sinne, vertrauen Sie der Wissenschaft und gehen Sie heute wählen.
Wie lange haben Sie es ausgehalten, das Fernsehduell zwischen Angela Merkel und Martin Schulz? Ich habe noch mitbekommen, wie unsere Kanzlerin ins Schlingern kam, als sie gefragt wurde ob sie denn am Wochenende in der Kirche war. War sie nicht. Nachdem Kandidat Schulz ganz stolz von seinem jüngsten Kirchenbesuch erzählte, konnte Merkel noch eifrig hinzufügen, dass Sie das Grab ihres Vaters besucht habe. Immerhin in einer Kapelle.
Die richtige Antwort wäre gewesen: „Es ist vollkommen egal wann ich das letzte mal in der Kirche war. Fragen Sie mich was wichtiges„. Wahlentscheidend war die Szene dennoch eher nicht – ich habe das Kanzlerduell kurz danach nicht mehr ausgehalten und habe ausgeschalten.
Die nachträglich publizierten Analysen zum langweiligen Frage-Antwort-Spiel haben meinen Verdacht bestätigt: Zu einer informierten Wahlentscheidung konnte die zermoderierte Sendung nicht beitragen.
Wie soll man also als dem Wechselwählen freundlich gesinnten Bürger nach dieser großen Koalition eine informierte Wahlentscheidung treffen? Der Wahl-O-Mat bietet sich zur Bestätigung der eigenen parteilichen Vorlieben an. Die dort abgefragte Themenbreite ist immerhin deutlich größer als das, wozu Merkel und Schulz im Duell sprechen durften.
Ich finde es noch viel interessanter, wie die Parteien speziell zu Fragen der Wissenschafts- und Forschungspolitik stehen.
Zum Glück gibt es auch hierfür Abhilfe: Die Organisatoren des Berliner Science March haben den Science-O-Mat ins Leben gerufen. Ein Wahl-O-Mat, der eben Fragen stellt (und parteispezifisch beantwortet), die für Wissenschaft und Forschung interessant sind.
Ich habe den Link zum Science-O-Mat schon einigen Freunden mitgeteilt. Eine häufige Rückmeldung bestand darin, die Auswahl der Fragen beziehungsweise deren Auswertung zu kritisieren. Bei vielen waren die sonst eher dem Lebensgefühl entsprechenden Grünen und Linken weit unten in der Liste der Parteien, die nahe an der eigenen Meinung zu Wissenschaft und Forschung stehen.
In den Kommentaren schwang mit, dass die Macher des Science-O-Mats bei der Entwicklung der kurzweiligen Webseite tendentiös gearbeitet haben könnten. Der March for Science ist zwar politisch, aber nicht parteiisch. Ich glaube, die bemerkte Diskrepanz zwischen den Erwartungen meiner Freunde und den Ergebnissen des Science-O-Mat ist eher eine Folge der forschungsfeindlichen Positionen der jeweiligen Lieblingsparteien.
Man mag sich ideologisch gerne Links oder Grün verorten. Wer Wissennschafts- und Forschungspolitik bei der eigenen Wahlentscheidung berücksichtigen möchte, könnte in Verlegenheit kommen, dann vielleicht doch mal was anderes zu wählen.
Ein geschätzter Freund hat folgendes auf Facebook gepostet: Helmut Kohl habe die Anerkennung für die Rolle des Architekten der Wiedervereinigung von Hans Modrow gestohlen.
Für mich, der die Wende als dreizehn und vierzehn Jahre alter Junge in Westdeutschland verfolgt hat, klingt das wie Geschichtsklitterei.
Mein Freund ist in Ostdeutschland aufgewachsen. Teilt jemand hier seine Meinung? Wie wird die Wiedervereinigung und die Rollen von Kohl, Modrow, Gorbatschow, Genscher und Schäuble eigentlich in Schulen gelehrt? Gibt es da Unterschiede zwischen Ost und West?
Wir sprachen gerade über Soziale Medien in der Wissenschaftskommunikation. Wie der Zufall es will, liefert uns ein Filmfestival in den USA aktuell schönstes Anschauungsmaterial.
Das Tribeca Film Festival schmückt sich jedes Jahr mit tollen Filmen, oft abseits des Mainstreams. Dokumentationen zählen zum Kernprogramm. Dieses Jahr sollte der Film “Vaxxed: From cover up to catastrophe” gezeigt werden.
Der Regisseur des Films ist Andrew Wakefield. Wakefield ist eine Ikone der Impfgegner-Szene. Er ist durch die Publikation einer Studie in einem renommierten Wissenschaftsjournal bekannt geworden, in der ein vermeintlicher Zusammenhang zwischen der Kombi-Impfung gegen Masern, Mumps und Röteln (MMR) und Autismus bei Kindern gezeigt wurde.
Inzwischen konnte klar gezeigt werden, dass kein Zusammenhang zwischen der Impfung und Autismus besteht. Wakefield wurde mehrfaches wissenschaftliches Fehlverhalten nachgewiesen, er hat seine Approbation als Arzt verloren und das besagte Paper ist zurück gezogen worden. Die auf der Tribeca-Seite publizierte Biografie von Wakefield. Rote Korrekturen von Joe Hanson https://twitter.com/jtotheizzoe/status/713414630572367872
Fakten interessieren jedoch die Impfgegner-Szene wenig, und auch die Organisatoren des Tribeca-Filmfestivals waren offenbar ebenfalls schlecht informiert, als sie die Dokumentation ins Programm hoben. Robert, de Niro, einer der Gründer des Filmfestivals, begründete die Nominierung von “Vaxxed” unter anderem damit, dass er selbst ein autistisches Kind habe, und alle Themen im Zusammenhang mit den Ursachen von Autismus offen diskutiert und untersucht werden sollten [sic].
Vor allem auf Twitter wurde Kritik an der Nominierung des Films laut. Um zu verdeutlichen, wie wenig die Dokumentation Wakefields mit der realen Datenlage zu tun hat, wurde unter dem Hashtag #futuretribecadocumentary absurde Titel für zukünftige Dokumentationen beim Tribeca Festival vorgeschlagen:
Die Macher des Festivals reagierten. In einem ersten Schritt wurde die geschönte Biografie von Wakefield von der Webseite des Festivals entfernt.
Gestern Nacht dann wurde auf der Facebook-Seite von Tribeca ein Statement von de Niro ergänzt, in dem er erklärt, dass er nachdem er unter anderem mit Wissenschaftlern gesprochen hat, sich entschieden hat, die Dokumentation aus dem Festivalprogramm zu entfernen.
Screenshot von der Facebook-Seite des Tribeca Filmfestivals
Der Papst hat 8,8 Millionen Follower auf Twitter, vergangenen Samstag hat er angekündigt, dass er jetzt „eine neue Reise antritt“ und in Zukunft auf Instagram wahrscheinlich Selfies postet.
Die katholische Kirche ist nicht unbedingt als reformfreudige Organisation bekannt. Die Social Media Accounts des Pontifex werden jedoch wie selbstverständlich in die Kommunikationsstrategie des Vatikans integriert. Weil sie erkannt haben: Nirgendwo sonst kann das Oberhaupt der Kirche so persönlich und so direkt mit den Gläubigen in Kontakt treten. Regelmäßige Statusupdates – und seien sie noch so trivial – stärken die Beziehung zur Zielgruppe.
Am 18. März war ich beim Workshop „Kommunikation zwischen Wissenschaft, Öffentlichkeit und Medien: Bedeutung, Chancen und Risiken der sozialen Medien”, organisiert von den Wissenschaftsakademien. Bei der eintägigen Veranstaltung sollte in den vorgestellten Expertisen beleuchtet werden, wie soziale Medien und Wissenschaftskommunikation zusammen passen oder zusammen kommen können.
Nun sind die Wissenschaftsakademien nicht der Vatikan und Peter Weingart, der Sprecher und Koordinator des Projekts, hat soweit ich weiß auch weder ein Twitter- noch ein Instagram-Account. Daher bin ich mir auch nicht ganz sicher, ob den Organisatoren, den Autoren der Expertisen und den Experten auf dem Podium klar geworden ist, was die Sozialen Medien für die Wissenschaftskommunikation leisten können und schon leisten.
Meine Zweifel ob die akademische Elite der Wissenschaftskommunikation, die das Podium in Berlin geschmückt hat, das Potential der Sozialen Medien voll erkannt hat, wurden leider bei der Tagung nicht ausgeräumt. Während laut dem Titel der Veranstaltung Bedeutung, Chancen und Risiken untersucht werden sollten, war von den Chancen auf der Tagung fast keine Rede mehr. Desinformation, Mainstreaming und Fragmentierung wurden schon in der Ankündigung als Beispiele für spezifische Risiken der Wissenschaftskommunikation über Soziale Medien genannt. In Berlin wurden dann Bedenken um mangelnde Qualitätskontrolle geäußert und die ökonomischen Kosten der Kommunikation online duschdekliniert. Es wurde vor drohendem Reputationsverlust kommunizierender Organisationen und Akteure gewarnt, und natürlich blieb die Gefahr der Auflösung klarer Grenzen zwischen unabhängigem Qualitätsjournalismus und Wissenschafts-PR nicht unerwähnt.
Selbst im Ausblick wurde ein düsteres Bild gemalt: Bots und Algorithmen können die Wissenschaftskommunikation negativ beeinflussen oder die Forschung gleich ganz übernehmen.
Kostenfaktoren bei der Kommunikation online. Abbildung aus der Präsentation von Leyla Dogruel.
Ich habe nach der Präsentation der ökonomischen Perspektiven des Wissenschaftsjournalismus und der Wissenschaftskommunikation (eines der vorgestellten Ergebnisse: Soziale Medien revolutionieren die Wissenschaftskommunikation nicht) die Rednerin gefragt, ob neben den Kosten, die die Kommunikation auf Sozialen Medien verursachen, nicht auch deren Nutzen untersucht wurde.
Die Datenlage sei zu dünn, war die lapidare Antwort. Und in der Tat haben während der gesamten Veranstaltung in Berlin sinnvolle Best-Practice Beispiele gefehlt.
Ich dachte mir, ich nehme diesen Artikel daher als Anlass, um ein paar Zahlen und Fakten zu Sozialen Medien in der Wissenschaftskommunikation zu sammeln, auch über den deutschsprachigen Tellerrand hinaus. Ich würde mich freuen, wenn meine natürlich unvollständige Liste in den Kommentaren noch ergänzt würde:
Die Facebookseite I Fucking Love Science erreicht mit teils trivialen Meldungen zu Wissenschaftsthemen 24 Millionen Follower.
Das Sub-reddit r/science hat über 10 Millionen Abonnenten.
Animationen zu wissenschaftlichen Themen werden millionenfach auf Youtube angesehen.
Dem Astrophysiker Neil deGrasse Tyson folgen 5 Millionen Twitter Accounts. Dem Physiker Brian Cox folgen 1,7 Millionen und Richard Dawkins hat 1,4 Millionen Follower.
Der bekannteste deutschsprachige Blogger und Kollege hier bei den ScienceBlogs, Florian Freistetter kommt auf knapp 10 000 Follower, genauso wie das von Henning Krause geführte Twitter-Account der Helmholtz Gemeinschaft übrigens.
Auf ResearchBlogging sind über 3000 Blogs registriert, auf denen Wissenschaftler inzwischen fast 50000 Blogposts über begutachtete wissenschaftliche Papers veröffentlicht haben.
Mein eigenes Blog hat im langjährigen Mittel knapp 20 000 Seitenaufrufe pro Monat. In meinem besten Monat hatte ich 200 000 Seitenaufrufe. Bekannte Wissenschaftsblogger, auch im deutschsprachigen Raum, haben regelmäßig hunderttausende Seitenaufrufe pro Monat.
Über Analyse-Plugins lassen sich für Blogs, Facebook und Twitter sehr genau untersuchen wie viele Menschen wie oft was für wie lange lesen oder anschauen.
Jedes Jahr werden über 1,2 Millionen neue peer-reviewte biomedizinische Papers publiziert. An neuen Daten und unerschlossenen Themen herrscht also mit Sicherheit kein Mangel.
Soziale Medien verursachen nicht nur (verhältnismäßig geringe) Kosten. Wissenschaftskommunikation online ist auch ein wachsendes Berufsfeld, sowohl für Wissenschaftler, als auch für Journalisten.
Wenn Wissenschaft nicht auf Sozialen Medien kommuniziert wird, überlassen wir das Feld den Impfgegnern, Klimaleugnern, Alternativmedizinern, fundamentalökologischen Lobbygruppen und sonstigen Scharlatanen, die im wissenschaftlich aussehenden Mäntelchen daher kommen.
Artikel zum WÖM2-Workshop und den vorgestellten Expertisen: Storify von @acatech, Artikel von mir auf der NaWik-Seite , Artikel von Reiner Korbmann auf seinem Blog. Kommentar von Henning Krause, Projektblog bei den Scilogs. Weitere Artikel zum Workshop gerne in den Kommentaren verlinken.
Von außen gesehen gleichen sich die Publikationsprozesse der unterschiedlichen Wissenschaftsdisziplinen. Ein Manuskript wird erstellt, die Autorenliste wird festgelegt, das Paper wird zur Veröffentlichung eingereicht, extern begutachtet, und nach eventuellen Nachbesserungen in einem Fachjournal publiziert.
Hinter den Kulissen jedoch spielen sich beim wissenschaftlichen Publizieren häufig Dramen ab, die nicht selten Parallelen zur Game of Thrones Saga aufweisen. Diesen Vergleich zog Ana Ros Camacho, eine der Teilnehmerinnen beim Heidelberg Laureate Forum. Fakt ist: Das Publizieren von Ergebnissen ist ein wesentlicher Teil der Arbeit als Wissenschaftlerin – und abgelehnte Manuskripte, deren verzögerte Veröffentlichung oder Unstimmigkeiten beim internen Festlegen der Reihenfolge der Autoren auf dem Paper sind oft der Auslöser schlafloserer Nächte und nicht selten karrierebeeinflussend.
Die sich abspielenden Dramen unterscheiden sich interessanterweise je nach Wissenschaftsdisziplin und spielen sich auf unterscheidlichen Schlachtfeldern ab, um bei dem Game of Thrones Vergleich zu bleiben.Günter Ziegler, Professor am Institut für Mathematik an der FU Berlin, erklärte mir, dass Manuskripte in der Mathematik häufig vorab auf arXiv veröffentlicht werden und auf Kommentare von Fachkollegen gewartet wird, bevor das Paper dann an ein Journal geschickt, und dann nach der externen Begutachtung publiziert wird. Dieser zweite, offizielle Publikationsweg dauert aber durch den sehr gewissenhaften Reviewprozess in der Mathematik zum Teil Jahre vom Zeitpunkt der Einreichung bis zur Veröffentlichung, so dass Nachwuchswissenschaftler oft wenig offiziell Publiziertes nachweisen können wenn sie sich beispielsweise auf Stellen bewerben. Die Autorenreihenfolge spielt in der Mathematik laut Ziegler übrigens keine Rolle: Es wird strikt alphabetisch sortiert.
Jedes Jahr werden weltweit über eine Million neue begutachtete molekularbiologische und medizinische Fachartikel veröffentlicht. Die Dramen beim Publikationsprozess unterscheiden sich in diesen Disziplinen ganz erheblich von der Mathematik. Die Vorabpublikation der Manuskripte auf sogenannten pre-print Servern ist weit weniger verbreitet. Die Magazine haben in den letzten Jahren viel unternommen, um den Begutachtungsprozess zu beschleunigen, so dass inzwischen im Idealfall nur wenige Wochen vergehen, bis ein eingereichtes Manuskript publiziert werden kann.
Die subjektiv wahrgenommene Realität aus böswilligen Gutachtern und inkompetenten Editoren ist jedoch oft eine andere. Manuskripte werden oft direkt auf editorieller Ebene abgelehnt und müssen dann mühsam für das nächste Journal umgeschrieben und umformatiert werden. Gutachter fordern aufwändige zusätzliche Experimente und Analysen, deren Sinn sich für die Autoren nur selten erschließt oder die zwar thematisch passen, aber mit der Kernaussage des Manuskripts wenig zu tun haben. Das alles kostet Zeit und verlängert die Publiktionsphase nicht selten auf rund ein Jahr vom Fertigstellen des ersten Manuskripts bis es dann tatsächlich erschient. Unterschwellig schwingt in diesem Jahr Wartezeit immer die Angst mit, dass eine konkrurrierende Gruppe vergleichbare Ergebnisse publizieren könnte, da die Daten eben vorab nicht auf einen Preprint Server gelegt wurden.
Im Gegensatz zur alphabetischen Sortierung in Mathematik ist die Erstellung der Autorenliste im biomedizinischen Bereich ein hochpolitisches Instrument. Die Rangliste soll hier reflektieren wer wie viel zum Paper beigetragen hat. Und wer die Verantwortung trägt (und die Finanzierung beigetragen hat) steht ganz hinten. Die Positionen auf den Veröffentlichungen haben ganz konkreten Einfluss auf die weitere Karriere. Nur Erstautoren können sich auf bestimmte Stipendien bewerben und nur jenen an letzter Stelle wird der Verteilung von Antragsgeldern geglaubt, das Projekt initiiert und geleitet zu haben.
Nur wie misst man den Beitrag der Autoren? Wie viel zählen Idee, Durchführung der Experimente, Analyse der Daten, Anfertigung der Abbildungen und das eigentliche Schreiben des Manuskripts? Spätestens bei großen kooperativen Projekten verteilt sich das auf mehrere Schultern und The Game of Thrones kann beginnen: Wer steht ganz vorne? Wer kommt direkt dahinter und bekommt möglicherweise ein Sternchen hinter den Namen als ebenbürtiger aber eben doch nicht ganz gleichwertiger Erstautor? Gibt es zusätzliche verantwortliche (corresponding) Autoren, wird dafür eine jüngere Autorin in der Rangfolge herabgesetzt? Wo reiht sich der Postdoc ein, der nur schnell noch ein, zwei Experimente für die Revision nachgereicht hat, aber ein besonders kollegiales Verhältnis zum Chef pflegt?
In der Regel sind es zwischen einer Hand voll und einem Dutzend Autoren, die auf diesen Publikationen stehen, die man zuerst mal versucht bei Cell, Nature oder Science einzureichen (und meistens nach ein paar Tagen abgelehnt zurück bekommt). Wie sieht es aber bei noch komplexeren Projekten mit der Bestimmung der Autorenlisten aus? Calliope Sotiropoulou arbeitet am ATLAS Projekt am CERN. Hunderte Wissenschaftler forschen an den Experimenten dort, dementsprechend lang sind die Autorenlisten. Angefertigte Manuskripte durchlaufen dort zuerst eine offizielle interne Kontrolle, bevor sie überhaupt an ein Journal geschickt werden. Sotiropoulou, die ebenfalls Teilnehmerin am Heidelberg Laureate Forum 2015 war, beschreibt, wie ein Game of Thronesques Gemetzel umgangen wird: „The ATLAS experiment has many subsystems and each one has a Speaker’s committee. This committee informs the subsystem members about the conferences that are suitable for publications and presentations and controls the whole process. We submit the abstract or proceeding to the Speaker’s committee where it goes through a review process first by the committee before it is even submitted. […] Then all ATLAS submissions are handled by the committee which will also decide who will make the presentation or present the poster (everything goes through a review process again). A publication within ATLAS can have a custom author list (which means that only the directly involved scientists sign it […]) or be an ATLAS publication (which means that the whole ATLAS collaboration – author list signs it). Belonging to the ATLAS collaboration does not make you an ATLAS author. In order to become an ATLAS author you are assigned an authorship task and qualify to be an ATLAS author. This task must be completed successfully within a year. After that you sign all ATLAS publications. However, for a paper to be published through ATLAS and with the ATLAS author list it takes significant time (usually a year or more). It has to go through reviewing and commenting through the various institutes that participate and be presented to the collaboration, and this has many iterations until it is finally ready for publication. […].“
Ich nehme heute an einer Podiumsdiskussion am KIT in Karlsruhe teil: Publish or perish. Sinnvoll publizieren. Ich bin gespannt, welche Dramen sich bei der Publikation von Artikeln in anderen Wissenschaftsdisziplinen abspielen.
Ich kann mir gut vorstellen, die Diskussion heute Nahmittag mit einigen Beispielen aufzulockern. Wer also eigene traumatische Erlebnisse mit dem Publikationsprozess gemacht hat, bitte unten kommentieren!
WeiterGen benutzt Cookies wenn notwendig und sinnvoll. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus. Sonst einfach nicht weiterlesen hier. Mehr Informationen in unserer Datenschutzerklärung.