Kategorie: Naturwissenschaften

  • Warum Rosalind Franklin nicht die Anerkennung zu Teil wurde, die sie verdiente

    Warum Rosalind Franklin nicht die Anerkennung zu Teil wurde, die sie verdiente

    Google feiert die Geburtstage einflussreicher Persönlichkeiten und wichtige Jahrestage in dem sie ihr Logo thematisch anpassen. Ein sogenanntes Google-Doodle wurde vorgestern Rosalind Franklin zu teil. Wer war Rosalind Franklin?
    Sie war eine Strukturbiologin bevor der Begriff überhaupt erfunden war. Sie hat an der Entdeckung der Struktur der DNA entscheidend mitgearbeitet und ihr ist dennoch akademische Anerkennung, vergleichbar mit der von Francis Crick und James Watson, versagt geblieben.
    Rosalind Franklin. Quelle: Wikipedia
    Die Geschichte von Rosalind Franklin ist sehr gut recherchiert, von etlichen Briefen und Aufzeichnungen gestützt und daher recht einfach nachzuerzählen. Sie gibt einen ungewöhnlich detaillieren Einblick in den damaligen akademischen Alltag mit erfolgreichen Kooperationen und persönlichen Antipathien, genialen Momenten, Managementfehlern und der unautorisierten Nutzung der Daten Dritter.
    Ähnliches spielt sich auch heute noch in den Laboren ab, wenn auch die Entdeckungen oftmals weit weniger bahnbrechend sind als die Aufklärung der Struktur der DNA.
    Franklin begann 1951 am MRC in London als wissenschaftliche Assistentin in der Abteilung Biophysik von John Randall zu arbeiten. Randall gab ihr ein Projekt zur Untersuchung von DNA durch Röntgenstrukturanalyse, einer Methode mit der sie Erfahrung hatte.
    Bislang hatte Maurice Wilkins und sein Doktorand Raymond Gosling an dem Projekt gearbeitet – mit erfolgsversprechenden, jedoch zu ungenauen Ergebnissen. Während Wikins im Urlaub war, wurde Franklin das Projekt (und die Aufsicht über den Doktoranden Gosling) komplett übertragen – allerdings ohne Wilkins rechtzeitig und adäquat davon zu unterrichten.
    Dieser klare Kommunikationsfehler von Randall war der Auslöser für Reibereien zwischen den Kollegen Wilkins und Franklin. Die Charaktere beider Forscher – Wilkins scheu und bedacht, Franklin ungeduldig und direkt – tat ihr übriges um das Verhältnis beider Forschern weiter zu belasten.
    Neben den technischen Aspekten der Röntgenstrukturanalyse, die Franklin ohne Zweifel beherrschte, war die größte Herausforderung die richtige Interpretation der Daten. Watson, Crick, sowie Linus Pauling vermuteten, dass DNA helikal vorlag, jedoch hatten deren Modelle Fehler, die erst durch die Arbeit von Franklin an DNA mit unterschiedlich starker Hydratation und durch ihre hervorragenden Beugungsaufnahmen der DNA erkannt werden konnten.
    Am 30. Januar 1953 reiste Watson ans MRC, um Wilkins eine Kooperation vorzuschlagen. Er wollte mit vereinten Kräften Linus Pauling bei der Lösung der Struktur der DNA zuvor zu kommen. Wilkins war nicht in seinem Büro und Watson traf auf Franklin, die ihm klar zu verstehen gab, dass sie alleine in der Lage sei, ihre Daten zu interpretieren und nicht auf die Kooperation angewiesen wäre.
    Beugungsaufnahme 51 (Quelle: Wikipedia)
    Der vor den Kopf gestoßene Watson traf sich am selben Tag dennoch mit Wilkins, der ihm im Rahmen der geplanten Kooperation eine Beugungsaufnahme Franklins zeigte – ohne deren Wissen oder Zustimmung.
    Diese Aufnahme 51 war der Schlüssel zum Verständnis der DNA Struktur. Es war keine einfache Helix, wie von Pauling postuliert, es waren keine drei umeinander geschlungene Fasern, wie Watson und Crick dachten, sondern zwei Stränge, die eine Doppelhelix bildeten.
    Fünf Wochen nach dem verhängnisvollen Meeting am MRC in London hatten Watson und Crick die DNA-Struktur gelöst. Sie publizierten ihr Doppelhelixmodell in Nature am 25. April 1953. Franklin war inzwischen ans Birbeck College in London gewechselt. Randall, ihr alter Chef, legte großen Wert darauf, dass ihre Daten zur DNA-Struktur am MRC verblieben.
    Obwohl die Daten von Franklin nach Aussagen von Francis Crick entscheidend für die Aufklärung der DNA Struktur waren, wurde ihr keine eigentliche Autorschaft auf dem Paper zu Teil. Sie wurde in einem Nebensatz gegen Ende des Briefs an Nature erwähnt:

    We have also been stimulated by a knowledge of the general nature of the unpublished experimental results and ideas of Dr. M. H. F. Wilkins and Dr. R. E. Franklin and their coworkers at Kings College, London.

    Wenn man den historischen Aufzeichnungen glauben kann, war Franklin auch nach der Publikation des Artikels von Watson und Crick nicht von der vorgeschlagenen Struktur überzeugt. Sie vermisste stichhaltige, experimentelle Daten, die das Modell stützten.
    Neun Jahre später war die Doppelhelixstruktur wissenschaftlich etabliert und Watson, Crick und Wilkins bekamen 1962 der Nobelpreis für Physiologie und Medizin für die Entdeckung der Struktur der DNA.
    Franklin freilich ging leer aus. Sie war bereits 1958 mit 37 Jahren an Krebs gestorben.

  • Neue Trainingsmethoden – Warum man auch ohne Doping die Tour de France gewinnen kann

    Gastartikel
    Doping im Radsport war in den letzten Jahrzehnten weit verbreitet. Wir dürfen davon ausgehen, dass es zumindest bei der Tour kaum saubere Spitzenleistungen gegeben hat. Team Sky beruft sich nun auf verbesserte Trainingsmethoden, Akribie hinsichtlicher technischer Aspekte und beste individuelle Betreuung ihrer Sportler und will so die zum Teil herausragenden Leistungen ihrer Sportler erklären. Ist das plausibel?
    Um dies zu diskutieren, sollte man sich anschauen, welches Wissen und auch welche Technik den Sportlern heute zur Verfügung steht, das vor 5-10 Jahren noch nicht zur Verfügung stand und das ganze vor den Leistungsanforderungen eines möglichen Toursiegers.

    Wie sehen Toursieger aus?

    Offensichtlich müssen Radsportler, die schnell Berge hochfahren wollen, sehr leicht sein. Da die Berge bei der Tour bis zu 20 km lang sind und Aufstiegszeiten von bis zu einer Stunde benötigen, wird letztlich derjenige am Ende vorne sein, dessen relative Leistungsfähigkeit in einem Zeitfenster von 20-60 Minuten am besten ist. Aus den Aufstiegszeiten und dem Gewicht des Sportlers lassen sich dann Watt/ kg ausrechnen.
    Bei Sprintern ist die Rechnung noch komplexer. Hier wird die absolute Wattleistung in Bezug zur Aerodynamik des Sportlers gesetzt. Kleine Fahrer wie Cavendish, die es schaffen, ihren Kopf bei Tempo 70 auf Lenkerhöhe zu halten, brauchen im Sprint geschätzte 200-300 Watt weniger als Sportler mit einer Figur und Haltung von Greipel.
    Das Talent und normales Training bringt unseren Sportler vielleicht auf eine Leistungsfähigkeit von 420 Watt in der Stunde. Der Sportler wiegt 74 kg und seine relative Stundenleistung beträgt 5,67 W/ kg. Das ist nicht schlecht und würden diesen Profi auf jeden Fall zu einem sehr wertvollen Helfer auf Flachetappen machen und er könnte in der Position 3-5 am Berg auch noch Helfer für seinen Kapitän sein. Wenn unser Sportler aber nun von diesen 74 kg 10 kg verlieren würde – ohne Leistungsfähigkeit einzubüssen – hätten wir seine Leistungsfähigkeit auf 6,54 Watt/kg erhöht und sind in den Leistungsbereichen, die z.B. von Vayer mit Doping erklärt werden.
    Wir sehen also, dass wir allein durch eine strikte Diät aus einem guten Profi einen Toursieger machen können. Natürlich werden auch Muskeln am Oberkörper Opfer dieser Diät. Das ist aber gewollt, jeder Muskel, der nicht benötigt wird, muss zusätzlich mit Sauerstoff versorgt werden. Unser Radsportler würde idealer Weise ergänzend ein Übungsprogramm absolvieren, z.B. Yoga, Pilates, Coretraining, um den Aufbau und Erhalt einer schlanken Muskulatur zu unterstützen. Das sind natürlich nur Zahlenspiele, die die Rolle des Körpergewichtes veranschaulichen sollen.
    Amüsant ist, dass in einigen Medien neue Wundermittel aufgeführt werden, die den Profis helfen sollen, ihr mageres Gewicht zu erreichen. Um 10 kg abzunehmen brauchen wir ein Kaloriendefizit von 70.000 kcal. Sie glauben das ist viel? Ein Profi hat kein Problem im normalen Training 3500 kcal zusätzlich zu verbrennen. Das sind 20 Trainingstage und der Athlet müsste dann noch nicht einmal auf seine täglichen 2500 kcal verzichten. Natürlich würden die Profis, um ihre Leistungsfähigkeit zu halten, diese Diät auf einen Zeitraum von vielleicht 60 Tagen ausdehnen. Kein Profi, der messen und wiegen kann, braucht ein Mittel, dass die Fettverbrennung steigert.

    Von Glycogenspeichern und Fettstoffwechseltraining

    Die Stundenleistung kann nur dann auch am Ende der Etappe in etwa erreicht werden, wenn die Glycogenvorräte des Sportlers noch gut gefüllt sind. Wenn wir nun schätzen, das ein Sportler einen Glycogenvorrat von insgesamt vielleicht 600-700 Gramm hat, erkennen wir, dass wir hier einen Leistungsbegrenzer haben. Immer dann, wenn der Sportler Vollgas fährt, verbraucht er ausschliesslich Kohlenhydrate. Selbst volle Speicher reichen also nur für 1,5 bis 1,8 Stunden Vollgas. Wir können uns aber vorstellen, dass der Sportler, der es schafft, mit seinen Glycogenvorräten vorsichtig umzugehen, auf die Dauer einer Tour de France Vorteile hat.
    Das war nicht immer so. Aus den Aufzeichnungen von Bernhard Kohl zur Tour 2008 wissen wir, das er täglich mit Insulin gearbeitet hat. Insulindoping soll die Glycogenvorräte um bis zu 40 Prozent steigern. Mit Doping hat man also schlicht und ergreifend den „Tank“ vergrössert und konnte so länger schnell fahren. Was Kohl noch nicht wissen konnte, ist, dass man die Fettverbrennung auch im Bereich der Schwellenleistung (Stundenleistung) aktivieren kann (Studie von Jeukendrup). Die Trainingsroutine wird ergänzt durch eine wöchentliche Einheit in der der Fettstoffwechsel im Belastungsbereich zwischen 85 und 100 Prozent der Schwellenleistung (Stundenleistung) in Form von Intervallen trainiert wird. Zuvor werden die Speicher nahezu leer gefahren – mit enormen Lerneffekten des Körpers.
    Der Sportler kann so den Anteil der Fettverbrennung an der Energieversorgung steigern und die Glycogenspeicher vergrössern. Das Konstrukt dieser Einheit ist so angelegt, dass der Sportler lernt mit erschöpften Speichern und seiner Wettkampfernährung noch Leistung zu bringen. Früher hat man lange 6-8 h Ausfahrten im ruhigen Tempo gemacht und so versucht, den Fettstoffwechsel zu optimieren. Wenn man bei solchen Ausfahrten dann in den Stunden 4-6 auch mal Berge mit höherer Leistung gefahren wäre, hätte man auch den oben geschilderten Effekt. Wenn wir den besseren Trainingseffekt aber in kürzerer Zeit gezielter hinbekommen, halten wir die Gesamtermüdung des Sportlers in Grenzen und gewinnen Platz im Trainingsplan für andere Einheiten und Trainingsinhalte. Hier sind weitere, sportmedizinische Hintergründe zum Fettstoffwechseltraining (pdf)

    Individualisierte Rennernährung

    Sie kennen als Zuschauer der Tour de France vielleicht noch die Silberlinge, die uns immer als Verpflegung der Profis dargestellt wurden? Heute weiß man, dass jeder Sportler eine individuelle Zusammensetzung seines Wettkampfgetränkes benötigt. Ideal ist ein Getränk, das zu einem Drittel aus Fructose und zwei Dritteln aus Einfach- oder Mehrfachzuckern besteht. Die Geschichte mit der Fructose (findet einen zusätzlichen Weg ins Blut) ist neu und dieses Wissen stand zumindest Armstrong und auch Ullrich noch nicht zur Verfügung. Man kann also heute bis zu ein Drittel mehr Nahrung aufnehmen und verarbeiten als früher. Man weiß heute auch, das in ein Wettkampfgetränk zusätzlich nur noch Salz und Koffein gehören. Alle andere Zugaben erhöhen ohne Nutzen die Anzahl der Teilchen und erschweren so die Verfügbarkeit und Menge der Kohlenhydrate.
    Aus diesem Wissen folgt auch, dass man heute als Sportler mehrere Kohlenhydratlieferanten in Form von Maltodextrin, Wachsmaisstärke, Fructose (Verträglichkeit prüfen!) zu Hause hat und sukzessive austestet, mit welcher Mischung man am besten klarkommt. Zum Beispiel während der oben geschilderten Fettstoffwechseleinheit. Natürlich besteht aber auch ein Teil des Talents des Sportlers darin, möglichst viel Energie im Wettkampf aufzunehmen und umsetzen zu können.
    Aber was ist mit dem Silberling? Während der Tour sollte ein Sportler jede Stunde nutzen, um sein persönliches Maximum an Nahrung pro Stunde zu sich zu nehmen. Während einer ruhigen Etappe im Feld können das 90 Gramm Kohlenhydrate pro Stunde sein. Da die Muskulatur arbeitet, wird der Zucker im Blut sofort verarbeitet und schont somit die Speicher. Am Berg in der Rennentscheidung wird man vermutlich je nach Sportler eher auf 50-60 Gramm pro Stunde gehen und eine Mischung nehmen, die sehr schnell ins Blut geht. Beschrieben wird das beispielsweise in dieser Studie zur Leistungssteigerung beim Zeitfahren durch veränderte Ernährungsstrategien.
    Adam Hansen beim Aufstieg nach Alpe d’Huez. Gerüchten zur Folge entspricht das Getränk in seiner Hand nicht der offiziellen Zusammensetzung für Radprofis. Quelle: Twitter
    Bleiben wir noch einen Moment bei den Glycogenvorräten, die es zu schonen gilt. Die Durchschnittleistungen bei einer Flachetappe können relativ niedrig liegen. Nehmen wir an, sie betrage 200 Watt. Dann verbraucht unser Sportler auf 200 km ca. 4000 kcal. Wenn wir diesem Sportler nun ein besonders eng anliegendes Trikot (Aerotrikot) anziehen und ihm einen Aerohelm aufsetzen und ihn auf einen Aerorahmen mit Aerolaufrädern setzen, können wir seine Durchschnittsleistung auf 170 bis 180 Watt reduzieren. Im Laufe einer normalen Etappe kann unser Sportler so seinen Energieverbrauch vielleicht um 500 kcal absenken. Das bedeutet von Tag zu Tag weniger Müdigkeit, weniger Belastung des Magen-/Darmtraktes und somit auch eine verbesserte Regeneration.
    Bei einer rennentscheidenden Etappe hat unser professionell betreuter Sportler also einen Vorteil aus einer optimalen Fettverbrennung, seinem bestem Wettkampfgetränk und durch sein Material einen günstigen Luftwiderstandsbeiwert.
    Auf der gestrigen Etappe mit dem zweimaligen Anstieg nach Alp d`Huez haben wir sehr deutlich gesehen, wie leere Speicher sich auf das Renngeschehen auswirken, aber auch wie unterschiedlich Fahrer darauf reagieren. Froome hat seine drohende Unterzuckerung rechtzeitig erkannt und konnte dann mit einem Gel die letzten fünf Kilometer noch so schnell fahren, das er auf die ihn verfolgende Gruppe von Contador nur ca. 10-15 Sekunden verlor. Da das Gel aber auch nicht sofort ins Blut geht, können wir davon ausgehen, das Froome das erste Anzeichen einer drohenden Unterzuckerung bemerkt hat. Der Leistungsmesser hilft hier.
    Früher konnte man das hohe Tempo der Konkurrenz nicht mehr folgen und erzählte sich darüber Geschichten, heute weiß der leistungsgesteuerte Sportler, dass er Probleme hat, seine eigene Leistung zu erbringen und kann dann die richtigen Rückschlüsse ziehen. Gut, wenn man das im Training trainiert hat, zum Beispiel mit der oben dargestellten Trainingseinheit.

    Neues Wissen, neue Trainingsmethoden?

    Schauen wir uns noch mal ein bisschen näher das Training an. Zu Jan Ullrichs Zeiten wurden die Sportler auf ein Ergometer gesetzt und dann wurde ein Belastungsstufentest mit Spirometrie und Laktatmessung durchgeführt. Aus den Ergebnissen wurden dann Trainingsempfehlungen abgeleitet. Seit ein paar Jahren wissen wir, Laktat ist nicht nur ein Stoffwechselprodukt, das man als Parameter für die Ermüdung heranziehen kann, sondern spielt auch eine Rolle als Energieträger. Laktat kann also vom Sportler genutzt werden, um dem arbeitendem Muskel zusätzlich Energie zuzuführen.
    Wenn wir früher bei Leistungssportlern die so genannte individuelle anaerobe Schwelle auf beispielsweise 400 Watt gelegt haben, dann konnte es durch aus sein, das dieser Sportler eine so genannte funktionelle (tatsächliche) Schwelle von 420 Watt hatte. Ich habe als Hobbysportler keinen Einblick in die Ergebnisse von Profisportlern, kenne aber persönlich nicht einen konventionellen Test im Hobbybereich der belastbare Trainingsempfehlungen gegeben hätte. Wenn Sie also Hobbysportler sind und Sie wollen ihre Leistungsfähigkeit untersuchen lassen, dann machen Sie es ruhig und sammeln sie die Daten, bis Sie sie selber interpretieren können.
    Zurück zum Laktat und unserem neuen Wissen über seine Rolle als Energieträger. Mittlerweile gibt es erste Trainingsempfehlungen aus der Sportwissenschaft. Wir bauen Einheiten, in denen wir bewusst in einem Intervall Laktat erzeugen und dann die Leistung absenken, um das Laktat als Energieträger im Muskel zu verarbeiten. Wir fahren also 3-4 Minuten mit vielleicht 105-110 Prozent unserer Schwellenleistung und reduzieren dann die Leistung auf 85-95 Prozent für weitere 4 Minuten. Wenn die Tour näher kommt, würde man diese Übung dann entsprechend spezifizieren und mit Antritten am Berg kombinieren. Zum Beispiel 10 Sekunden hart antreten und dann für weitere 30 Sekunden das Tempo hochhalten und dann erst das Tempo auf 85-90 Prozent der Stundenleistung absenken.
    Übrigens gab es schon immer Einheiten, wie z.B. das Schwellenkreuzen, mit denen man ähnliche Effekte erzielt hat. Neu ist heute, dass wir wissen, warum diese Einheit nützlich ist und zu welchem Zweck und wann sie eingesetzt werden kann. Verkürzend könnte man sagen, dass wir ähnlich der exogenen Versorgung mit Kohlenhydraten trainieren können, das Laktat als Energieträger zu nutzen; und zwar dergestalt, dass der Formaufbau begünstigt wird.Wir haben mit diesem Wissen also ein weiteres Puzzle, um unseren Sportler formaufbauend zu Tour zu bekommen.

    Der Trainingsplan – gestern und heute

    Wenn wir unseren Trainingsplan für unseren Tour de France Sieger 2014 zusammenbauen, hilft uns jedes neuere Wissen, die Einheiten entsprechend einzuplanen. Wir bekommen also mehr Qualität in unser Training. Bernhard Kohl hat in der „Zeit“ versucht, seinen Trainings- und Dopingplan zu rekonstruieren. Die Daten sind natürlich unvollständig und ich tue ihm vermutlich im folgenden Unrecht, möchte diesen Plan aber gerne als Beispiel nehmen.
    Früher haben Leistungssportler im Oktober eine längere Ausszeit genommen. Radrennen sind sehr hart und sehr ermüdend. Nahezu jeder Profi und auch die meisten Hobbysportler haben am Ende des Jahres ein leichtes Übertrainingssyndrom. Eine Pause tut also gut und für die Gesundheit ist es förderlich, wenn man dem Körper eine z.B. 6 wöchige Regeneration gibt. Leider nimmt mir eine Pause von 4-6 Wochen fast die Chance, im nächsten Jahr stärker zu werden. Schon 2 Wochen Trainingspause reduzieren die Zahl der Mitochondrien dramatisch. Ich muss also beim Trainingsstart einen längeren Vorlauf einplanen, bevor ich wieder härter trainieren kann. Unserem Toursieger 2014 würde ich empfehlen, 2013 eine abgegrenzte Saison zu fahren und so die Ermüdung in Grenzen zu halten. Eine reine Saisonpause wäre dann hinfällig und unser Sportler könnte in einer Übergangsperiode von Mitte September bis Mitte Oktober aktiv mit Sport regenerieren.
    Bernhard Kohl hat im Winter Langlauf gemacht, um wieder den Sport aufzunehmen. Für das Herz-Kreislauf-System ist es egal, welchen Ausdauersport wir wählen. Aber wenn wir nachdenken, werden wir unschwer erkennen, dass dieses Training auf dem Rad einen höheren Nutzen hat. Bernhard Kohl hat also Langlauf gemacht. Als Trainer hätte ich grosse Probleme, dieses Training in einer Trainingsplanung zu qualifizieren und auch die Trainingsbelastung zu messen. In der Trainingsplanung bauen wir auf Reize und auf Regeneration. Die Reize müssen sukzessive gesteigert werden. Jeden Tag vier Stunden Langlauf zu machen ist bestenfalls nett. Spätestens in der dritten Woche fange ich an meine Zeit zu verschwenden, wenn ich meinen Reiz nicht deutlich anpasse.
    Leistungschart von Alejandro Valverde auf der neunten Etappe der diesjährigen Tour de France.

    Verbesserte Leistungsmessung und Analysesoftware

    Die Firma SRM hat für den Radsport einen Leistungsmesser bereits vor über 20 Jahren entwickelt. Mittlerweile gibt es diverse Softwareprogramme, die diese Leistungsdaten analysieren und den so genannten Trainingsload einer Einheit bewerten. Vereinfachend ausgedrückt werden Belastungen oberhalb der Schwelle deutlich stärker gewertet als Belastungen darunter. Mit dem Herzfrequenzmesser könnte Bernhard Kohl Belastungsspitzen durch kurze Hügel nicht wirklich erfassen, da die Herzfrequenz bis zu 3 Minuten Nachlauf hat. Wir fahren also einen Hügel hoch, sind sehr stark im anaeroben Bereich und unsere Herzfrequenz ist gerade mal von 120 auf 140 gestiegen. Unser Leistungsmesser zeigt aber, dass wir am Hügel 130 Prozent unserer Stundenleistung eingesetzt haben und diese Leistung korrespondiert eher mit einer Herzfrequenz von 180, die wir auch erreicht hätten, wenn der Hügel einen Kilometer länger gewesen wäre.
    Für unsere Trainingsplanung sind solche Differenzierungen sehr wichtig. Durch die Messung der tatsächlichen Leistungen können wir die Reize viel genauer setzen und so auch die Regeneration viel besser steuern. In einer perfekten Trainingsumgebung kennt nicht nur der Trainer, sondern auch sein Schützling die Wirkweisen des richtigen Trainings und so können beide von Tag zu Tag die Feinsteuerung für das Training vornehmen. Natürlich hat es früher schon Ruhepulsmessungen morgens gegeben und es wurden Blutparameter gemessen. Nur die dann folgende Trainingsleistung kann man erst mit der Software für Leistungsmesser richtig setzen und auswerten. Wer es genau wissen will, kann sogar während der Ausfahrt den aktuellen Trainingsload vom „Tacho“ ablesen.
    Wir können also einem Trainingstag eine Trainingsbelastung zuordnen und die Software kann uns dann anzeigen, wie sich der Trainingsload der letzten sieben Tage sich beispielsweise zum Trainingsload der letzten 42 Tage darstellt. Da man mittlerweile die Daten von vielen Leistungssportlern zum Vergleich hat, haben Trainer heute mehr Möglichkeiten, sich zu orientieren. Wir planen also unsere Trainingsbelastung für die Zeit von November bis Februar und steigern kontinuierlich den Trainingsload mit Einheiten, die für eine bestmögliche Basis für das weitere Training sorgen.
    Man könnte neben vielen ruhigen Kilometern in dieser Zeit zum Beispiel auch harte, hochintensive Reize im so genannten Hittraining machen. Dieses hochintensive Training in Intervallform ist ein neuer und auch alter Hut. Die Sportwissenschaft arbeitet aktuell an Längsschnitten, die uns helfen werden, das Hittraining auch in die Mehrjahresplanung einzubauen. Aber schon heute sehen die Trainingspläne in nahezu allen gängigen Magazinen für Breitensportler deutlich roter (=intensiver) aus als noch vor einigen Jahren. Wer bislang noch wenig in diesem Bereich trainiert hat, wird von einem Hit-Trainingsblock vermutlich stark profitieren.
    Softwareprogramme wie Golden Cheetah (opensource) verfügen über vielfältige Analysetools, zum Beispiel das Performancechart. Hier wird der aktuelle Trainingsload mit dem langfristigen Trainingsload verglichen. Wenn ich mein Pensum steigere, ist die aktuelle Belastung immer höher als die langfristige. Die Software erzeugt daraus die Trainingsstressbilanz, die dann in der Aufbauphase natürlich sehr stark negativ sein kann. Vor dem Wettkampf wird dann der aktuelle Trainingsload reduziert, um dann zum Wettkampf eine leicht positive Trainingsstressbilanz zu erzeugen. Der Sportler hat also ein Instrument, um die Trainingsbelastung zum Wettkampf genau auszusteuern; natürlich immer abgleichend mit eigenen Erfahrungswerten.
    Von der Firma Trainingpeaks gibt es eine Kaufsoftware von Coggan und Allen, die sich seit über 20 Jahren mit dem Thema Training mit Powermeter beschäftigen. Hunter Allen hat sich in diesen Tagen auch zu den Berechnungen von Vayer geäussert. Allen hält aufgrund der vielen ihm vorliegenden Charts von Sportlern die 6,5 W/kg für sauber möglich. Andy Coggan hat sich gestern in Facebook dahingehend geäussert, dass er Leistungen von mehr als 9 W/kg im VO2 Max Bereich für physiologisch möglich hält und leitet daraus ca. 6,6 W/ kg als mögliche Stundenleistung ab. Wenn man sich die Topfahrer anschaut, liegen diese oftmals am Ende einer Tour nur 1-5 Minuten auseinander. Diese Unterschiede lassen sich mit einem Kg Gewichtsunterschied erklären.

    Neue Trainingsmethoden sind besser als altes Doping

    Wenn Sie mich fragen, ob die Leistungen von Wiggins und Froome sauber sind, würde ich das bejahen. Zwischen 1990 und 2010 gab es hinsichtlich des Wissens über „richtiges“ Radsporttraining eine Wissensexplosion. Natürlich hat die Trainingsmethodik unter Doping gelitten. Durch Conconi, Ferrari und co. wurde in der Trainingsmethodik der Focus sehr stark auf die Schwellenleistung und deren Beeinflussbarkeit durch Epo und Blutdoping gesetzt. Das Training in diesen Jahren stand sicherlich hinter den Möglichkeiten und Ergebnissen des Dopings zurück. Als Hobbysportler gebührt mein Respekt und meine Achtung den Sportwissenschaftlern, die unseren Sport mit ihrer Suche und Forschung nach weiteren Bausteinen, die unsere Erkenntnisse mehren und bereichern.
    Der Radsport hat sich gewandelt. Teams wie Sky beschäftigen keine ehemaligen Doper. Die Sportler selber äussern sich heute eindeutig über Doper. Früher hätte man zum Doping der anderen geschwiegen und lediglich geleugnet selber zu dopen. Dieser Vorzeichenwechsel ist im Peleton erfolgt. Auch die aktuellen Leistungscharts z.B. von Valverde zeigen, dass die Sportler heute sauber sind. Der Radsport hat aus meiner Sicht an Faszination wieder gewonnen, weil die Leistungen nachvollziehbarer geworden sind.
    Schauen Sie auf das Chart von Valverde und teilen Sie meine Leidenschaft für diesen Sport. Valverde hat am ersten Berg seine Helfer vorgeschickt und dann vor der Kuppe mit vielleicht 6,5-6,8 Watt/kg attackiert. Froome konnte ihm zwar folgen, war dann aber ohne Helfer. Die restlichen Berge der Etappe waren dann davon geprägt, dass Froome umzingelt von Gegner ohne eigene Helfer selber entscheiden musste, welche Gegner er kontrolliert. Die Leistungen von Valverde sind absolut plausibel. Ich kenne genug talentierte Hobbysportler, die natürlich mit höherem Gewicht, ähnliche Leistungen erbringen.
    Freuen wir uns auf den heutigen Tag. Heute geht es zuerst über den Glandon, dann kommt der Col de Madeleine. Denken Sie heute mal an die Glycogenspeicher. Wenn auf den ersten beiden Bergen ein hohes Tempo gefahren wird, dann kann es durchaus sein, dass an den letzten Steigungen einige Topfavoriten sehr grosse Probleme bekommen. Sowohl Valverde als auch Contador sind beide überführte Doper. Beide sind aber auch herausragende Rennfahrer, die heute (sauber) den Radsport mit grosser Leidenschaft ausüben und aufgrund ihrer offensiven Fahrweise ihren Gegnern einen Wettkampf antragen, der an Faszination viel mehr zu bieten hat, als der Abgleich von Zahlen.
    Der Autor dieses Gastartikels ist Diplomkaufmann und seit vielen Jahren begeisterter Radsportler, der auch Rennen fährt. Er beschäftigt sich beruflich unter anderem mit der Entwicklung von Carbonteilen für Rennrad und Mountainbike made in Germany (Projekt sizezero). Am 01. August ist die offizielle Vorstellung.
    Der Autor schreibt hier unter dem Pseudonym Peter Sturm.

    Weitere Artikel zur Tour de France hier im Blog:

    Ist Chris Froome gedopt?

    Tour de France: Kann mit berechneten Leistungsdaten Doping nachgewiesen werden?

     
     

  • Impfpflicht gegen Masern ja oder nein?

    Impfpflicht gegen Masern ja oder nein?

    Der vom Zentralinstitut für die kassenärztliche Versorgung in der Bundesrepublik Deutschland herausgegebene Versorgungsatlas liefert besorgniserregende Zahlen zur Masernimpfung in Deutschland:

    Auf Basis der bundesweiten vertragsärztlichen Abrechnungsdaten der Jahre 2008 bis 2010 kann gezeigt werden, dass insgesamt 85,8% der Kinder bis zu einem Alter von zwei Jahren mindestens eine Masernimpfung erhalten haben; 69,4% im von der STIKO empfohlenen Zeitraum (9-14 Monate). […] Die zweite Masernimpfung, welche dazu dient, Impflücken, die auf einem Versagen der ersten Impfung beruhen, zu schließen, erhalten im Bundesdurchschnitt nur noch 62,0% der beobachteten Kinder bis zur Vollendung des zweiten Lebensjahres, 44,3% im von der STIKO empfohlenen Alter von 15-23 Monaten.

    Im Bundesdurchschnitt sind weniger als zwei Drittel aller zweijährigen gegen Masern geimpft und selbst später, durch Nachuntersuchungen belegt, beträgt die Impfhäufigkeit nur rund 70%. Angestrebt werden 95% für eine wirksame Herdenimmunität.
    Bei Betrachtung der lokal aufgeschlüsselten Daten fällt vor allem eine regional unterschiedliche Verteilung der Impfhäufigkeit auf. Im Süden der Republik ist sie eindeutig niedriger (Karte oben). Interessant sind auch die großen Schwankungen auf Kreisebene. So beträgt die Häufigkeit der ersten Impfung im Kreis Landau in der Pfalz nur rund 70%, wohingegen im gerade 60 km entfernten Kreis Zweibrücken fast 95% erreicht werden. In Bayern sind die Unterschiede zwischen dem Kreis Hof (94%) und Rosenheim (61%) noch drastischer.
    Verteilung der Impfhäufigkeiten in Kreisen nach Bundesländern. Ausreißer sind gesondert aufgeführt. Die Kürzel der X-Achse stehen für die Bundesländer.
     
    Die jetzt publizierte Studie gibt stimmt einerseits mit der Feststellung in meinem kürzlich hier publizierten Artikel über ideologische Impfgegner überein. Es sind vornehmlich sozioökonomisch höher gestellte Schichten, in denen die Impfung am ehesten abgelehnt wird, sprich: Das Bildungsbürgertum.
    Bei den starken Schwankungen der Impfhäufigkeit auf Kreisebene müssen aber noch andere Faktoren als die Bildung der Eltern eine Rolle spielen. Laut dem Bericht des Zentralinstituts für die kassenärztliche Versorgung sind es vor allem die Kinderärzte und Hebammen, die einen Einfluss auf die Impfentscheidung der Eltern haben. Das ZI schreibt:

    Sind zum Beispiel auch Heilpraktiker oder Naturheilkundler an der Impfentscheidung beteiligt, sinkt die Wahrscheinlichkeit einer frühzeitigen Masernimpfung um 50%, wobei Kinder, deren Eltern grundsätzlich bei Homöopathen Rat suchen, zusätzlich geringere Chancen haben, (frühzeitig) gegen Masern geimpft zu werden. […] Da in den Kreisen eine unterschiedliche Rate an impfkritischen Ärzten, Hebammen und/oder Heilpraktiker bzw. Naturheilkundler vorhanden ist, könnte dieser Faktor auch einen Teil der Heterogenität der Impfquoten erklären.

    Erwiesen ist, dass die Masern eine gefährliche Infektionskrankheit mit potentiell schwerwiegenden akuten und langfristigen Folgen ist. Die Wahrscheinlichkeit direkt an Masern zu sterben liegt etwa bei 1:1000-1:3000. Aktuelle Zahlen aus Deutschland geben die Wahrscheinlichkeit als Masernspätfolge an einer immer tödlich verlaufender Entzündung des Gehirns, der subakuten sklerosierenden Panenzephalitis, zu erkranken mit 1:1700-1:3300 an.
    Mögliche Nebenwirkungen der Impfung, wie eine Rötung der Einstichstelle und in manchen Fällen leichtes Fieber, stehen dazu in keinerlei Verhältnis.
    Die öffentliche Wahrnehmung sieht hingegen anders aus. Eine Elternbefragung der Bundeszentrale für gesundheitliche Aufklärung aus dem Jahr 2011 ergab, dass 35% der befragten Eltern Schutzimpfungen generell kritisch gegenüber stehen und nur 61% der befragten Eltern Masern für eine (sehr) gefährliche Krankheit halten. Fast die Hälfte der Eltern habe bereits einmal auf eine Impfung ihres Kindes verzichtet, weil sie die Impfung entweder für nicht notwendig hielten (18%), sie die Befürchtung hatten, dass ihr Kind körperlich zu stark zu belasten (15%) oder sie Angst vor Nebenwirkungen der Impfung hatten (14%).
    Ist es wirksamer und besser zu versuchen über Aufklärung der Eltern eine höhere Durchimpfung zu erzielen? Soll bei den Ärzten und Hebammen angesetzt werden? Oder ist doch eine Impfpflicht für Masern notwendig? Und wenn ja, wie sollte diese umgesetzt werden?

    Link zum kompletten Bericht Masernimpfung des Zentralinstituts für die kassenärztliche Versorgung (.pdf), aus dem die obige Abbildung entnommen ist.
  • Ideenklau: Die Parasiten der Wissenschaft

    Ideenklau: Die Parasiten der Wissenschaft

    Marcus Pössel erzählt in seinem Blog „relativ einfach“ eine offenbar reale Geschichte vom Diebstahl einer Idee aus einer Bewerbung für eine Postdocstelle in der Astronomie. Einer der Professoren, an den das Bewerbungsschreiben ging, versuchte laut des Artikels das geplante Projekt selbst durchzuführen, ohne den Urheber zu informieren oder ihn etwa an den Messungen und Analysen zu beteiligen. Durch Zufälle erfährt der Bewerber für die Postdocstelle von dem Ideenklau und glücklicherweise ist der Bewerber letztendlich dennoch der erste, der die zugehörigen Daten publizieren kann.
    Der dort beschriebene Fall stellt eine Ausnahme dar, weil der Urheber durch die schriftliche Dokumentation der Idee identifizierbar war, und weil der Dieb der Idee ebenfalls relativ eindeutig identifiziert werden konnte, da offenbar ein im Wortlaut sehr ähnlicher Antrag bei einer astronomischen Beobachtungsstation von ihm eingereicht wurde.
    Ideenklau in der Wissenschaft kommt in meiner Erfahrung relativ häufig vor, selten sind jedoch die Urheber der Ideen so einfach zu identifizieren wie im oben beschriebenen Fall, denn häufig werden gute Ideen in gutem Glauben formlos und mündlich kommuniziert. Auf Konferenzen, nach Vorträgen, in Meetings und in Gesprächen beim Mittagessen. Die meisten Ideendiebstähle passieren dadurch in einer Grauzone, in der Ideenklau relativ einfach dadurch gerechtfertigt wird, dass man sich eben durch Dritte habe inspirieren lassen.
    Ich glaube auch, dass sich vielfach diejenigen, die Ideen klauen, gar keiner Schuld bewusst sind. Denn wer noch nie eine eigene Idee hatte, und wem folglich auch noch nie eine geklaut wurde, kann gar nicht wissen, wie es sich anfühlt, geistiges Eigentum gestohlen zu bekommen. Derjenige versteht auch nicht den Wunsch, dieses zu schützen – vor eben jenen Parasiten der Wissenschaft die Ihre „Inspiration“ für Projekte einfach direkt von Kollegen übernehmen.
    Es ist allerdings auch klar, dass die Wissenschaft von Ideen alleine nicht lebt. Es kommt auf deren Umsetzung an. Dabei den Beitrag des Urhebers der Idee bewusst oder unbewusst zu ignorieren und zu verschleiern demotiviert die Ideengeber und ist klar wissenschaftliches Fehlverhalten. Es sollte dementsprechend behandelt und geahndet werden.

    Bild oben von user dumbonyc auf flickr (CC BY-SA 2.0)
  • Die Resonanz auf Recently

    Die Resonanz auf Recently

    Wenn man Noah Gray Glauben schenken kann, dann ist Recently ein Treffer ins Schwarze. Der Redakteur von Nature schreibt auf Twitter über unsere App:

    These algorithms, if good, will be valuable as the quantity of published science continues to explode. The filter problem is massive.

    Gray hat das Problem erkannt! Die Zahl der jährlich neu publizierten akademischen Fachartikel steigt ständig. Dieses Jahr werden höchstwahrscheinlich zum ersten Mal über eine Million neue biomedizinische Artikel publiziert werden. Ohne technische Hilfsmittel ist es da eigentlich unmöglich, den Überblick zu behalten.
    Jährlich neu publizierte peer-reviewte biomedizinische Fachartikel der letzten 50 Jahre (nicht kumulativ!). 2013 wird erstmal die Millionengrenze überschritten. (Werte x 1000)
     
    Recently versucht genau hier zu helfen. Die App erleichtert es Forschern aus den Lebenswissenschaften sowie Ärzten mit der persönlich relevanten Fachliteratur auf dem aktuellen Stand zu bleiben. Wir haben Recently vor drei Wochen als kostenlose beta-Version veröffentlicht  und ich habe die App ja hier auch vorgestellt. Zeit für einen kurzen Zwischenbericht – und für ein Dankeschön an vielen registrierten Nutzer und Tester, von denen uns gut 50 konstruktives Feedback zur App geschickt haben.
    Ich war positiv überrascht von der hohen Zahl der Registrierungen für Recently in den ersten Wochen. Das ist nicht zuletzt anderen Journalisten, Bloggern und Wissenschaftern zu verdanken, die den Link zur App auf Twitter und Facebook, in institutsinternen Mailinglisten und auf der eigenen Website verbreitet haben. Hier eine Auswahl der Resonanz auf den Launch von Recently:
    Matthias Fromm hat mich für das Open Science Radio eine gute halbe Stunde zu Recently Interviewt. Herausgekommen ist ein gut halbstündiges Gespräch mit vielen Hintergrundinformationen.
    Die Laborwelt titelte kurz nach dem Launch: „Fachartikel: App trennt die Spreu“ und schreibt: „Die neue Web-App „Recently“ hilft Forschern, den Durchblick im Publikationsdickicht zu bewahren
    Bent Petersen, ein Assistenzprofessor für Bioinformatik in Kopenhagen schreibt in seinem Blog: „It is very easy to get started with Recentlyapp.com. You need to provide your name and a valid email address. In a second step, they ask you to provide three publications relevant to your research field, so they can start recommending articles to you.“
    Marc Scheloske berichtet in der Wissenswerkstatt ebenfalls über Recently und nennt die App ein „raffiniertes Tool um interessante Fachliteratur zu entdecken
    Soweit eine Zwischenmeldung nach den ersten Wochen, ich hoffe natürlich, dass es ähnlich erfolgreich weiter geht und wir möglichst viele neue Nutzer bekommen – selbstverständlich sind wir auch weiterhin an Feedback interessiert.
    Recently ist übrigens auch Sponsor eines Beachvolleyballteams (siehe Foto oben). Dieses Jahr sind wir bislang ungeschlagen.

  • Geklonte Bilder – Hintergründe zum manipulierten Stammzellpaper

    Geklonte Bilder – Hintergründe zum manipulierten Stammzellpaper

    Wenn Teile von Abbildungen in wissenschaftlichen Publikationen kopiert sind, dann ist das verdächtig. Wenn diese auch noch unterschiedliche Beschriftungen tragen und in unterschiedlichem Kontext gezeigt werden, dann ist das wissenschaftliches Fehlverhalten und Vorsatz kann unterstellt werden – ganz egal ob dies für die Kernaussage der Veröffentlichung relevant ist oder nicht.
    In einem in der letzten Woche in Cell publizierten Paper aus dem Labor von Shoukhrat Mitalipov fielen einer anonymen Wissenschaftlerin mehrere Unstimmigkeiten auf. Sie hat dies auf der Plattform Pubpeer dokumentiert, einer Seite auf der nach dem offiziellen Peer-Review wissenschaftliche Veröffentlichungen diskutiert und kritisiert werden können. Am auffälligsten dabei sind die Duplikationen von Bildausschnitten. Zusätzlich sind der anonymen Wissenschaftlerin noch weitere Unstimmigkeit in einer Abbildung aufgefallen, in der Genepxressionsdaten von vermeintlich unterschiedlichen biologischen Repliken verglichen werden.
    Besonderere Brisanz wird diesem Fall dadurch verliehen, dass das Paper über die Herstellung embryonaler Stammzellen aus Körperzell-DNA und Eizellehülle in den Medien starke Resonanz fand. Und vor dem Hintergrund, dass ähnliche Versuche embryonale Stammzellen herzustellen, 2006 als Fälschung entlarvt wurden. Dementsprechend hoch ist auch aktuell die mediale Berichterstattung über die Unstimmigkeiten, zum Beispiel  hier, hier oder hier.
    Ich möchte hier versuchen, auf ein paar Fragen einzugehen, die vielleicht nicht detailliert genug in den großen Online-Blättern zur Sprache kommen.

    Versehen oder Vergehen?

    Mitalipov beschwichtigt in einem Interview in Nature und erklärt, es habe sich um ein Versehen gehandelt, das möglicherweise durch einen zu hastigen Begutachtungsprozess nicht entdeckt wurde. Meiner Meinung nach wurden die Bilder in Abbildung 6D und S5 vorsätzlich vertauscht und unterschiedlich beschriftet (siehe Abbildung hier oben). Wer Bilder am Mikroskop erstellt und speichert, sorgt dafür, dass diese eindeutig benannt und geordnet abgelegt werden. Wer eine veröffentlichungsreife Abbildung anfertigt, vergewissert sich mehrfach, dass das was man da sieht, das ist, was gezeigt werden soll. Wieso der Maßstab auf dem selben Bild einmal fehlt und einmal vorhanden ist, verstehe ich ebenfalls nicht.

    Sind die Fehler relevant für die Kernaussage der Veröffentlichung?

    Bei den vertauschten und zurechtgeschnittenen mikroskopischen Aufnahmen kann ich das nicht beurteilen. Die Fehler in Abbildung S6 hingegen sind jedoch sehr nahe dran. Ein Kernaspekt der Studie betrifft die Ähnlichkeit der hergestellten Stammzellen zu natürlichen embryonalen Stammzellen. Um das zu beurteilen, werden Genexpressionsmuster verglichen. Je besser diese korrelieren, desto mehr ähneln sich die Zellen. Man sieht das gut in Abbildung 7A. Generell werden solche Experimente in technischen sowie biologischen Replikaten durchgeführt (meistens drei), um die Stärke der Korrelation der Genexpressionsmuster besser beurteilen zu können. Das sind die Autoren in Abbildung S6 schuldig geblieben (hier unten).
    Abbildung S6 aus dem Paper. Die Grafiken oben mitte und rechts sind identisch. Die Grafiken in der Mitte links und unten rechts sehen laut anonymem Gutachter bei PubPeer zu gut aus, um von biologischen Replikaten zu stammen.

    Hat der Peer-Review Prozess versagt?

    Nein. Versagt hat die Redaktion von Cell. Ich gehe eigentlich davon aus, dass die meisten Wissenschaftsmagazine – mit Sicherheit aber Cell – inzwischen Software besitzen um Fälschung in Abbildungen zu detektieren. Warum eine solche Software in diesem Fall nicht eingesetzt wurde, ist rätselhaft. Deutlich kritikwürdiger als der Reviewprozess ist also die mangelhafte redaktionelle Arbeit beim Elsevier – Flaggschiff.

    War der Peer-Reveiw Prozess zu schnell?

    Laut Angaben von Cell wurde das Paper am 30. April eingereicht, am 3. Mai überarbeitet und am selben Tag akzeptiert. Meiner Erfahrung nach spiegeln diese Daten nicht den Ablauf des tatsächlichen Begutachtungsprozesses wider. Normalerweise wird ein eingereichtes Manuskript als erstes redaktionell bewertet und entschieden, ob die Veröffentlichung überhaupt zu Gutachtern geschickt wird. Diese werden dann mit der Bitte kontaktiert, das Manuskript innerhalb von drei Wochen zurück zu schicken (nachzulesen auch hier). Danach kann eine Publikation entweder abgelehnt werden (sehr häufig) oder nach Bearbeitung der Anmerkungen der Gutachter durch die Autoren akzeptiert werden.
    Um die offiziellen Begutachtungszeiten für Manuskripte niedrig zu halten (und die Ablehnungsraten hoch), greifen Journals zu einem Kniff: Papers, die stark überarbeitet werden müssen, werden abgelehnt. Allerdings wird den Autoren ermöglicht, das verbesserte Manuskript beim gleichen Magazin erneut einzureichen. Bei etwaiger Veröffentlichung gilt dann das zweite Einreichdatum, und das kann sehr nahe beim Datum liegen, an dem das Paper zur Veröffentlichung akzeptiert wurde.
    Seltsam mutet daher die Antwort von Mitalipov auf die Frage an, warum solche Eile bei der Publikation der Daten bestand. Der Hauptautor der Studie nimmt Cell in Schutz und sagte dazu zu Nature, er wollte die Veröffentlichung beschleunigen, um die Ergebnisse bei einem Meeting im Juni zu präsentieren.
    Seit wann müssen Daten publiziert sein, um bei einem Meeting präsentiert werden zu können? Und seit wann hat ein Autor einen solch großen Einfluss auf die Publikationspolitik eines Journals?
    Autoren müssen bei der Veröffentlichung eines Papers immer etwaige Interessenkonflikte angeben. Wie werden wohl bei Cell Interessenkonflikte von Editoren behandelt?

  • Recently – einfach mal den Überblick behalten

    Recently – einfach mal den Überblick behalten

    Relativ zu Anfang meines Biologistudiums hatte ich eine wahnwitzige Idee. Wie wäre es denn, wenn ich alle Papers, die je publiziert wurden, lesen würde? So nebenher, neben dem Studium. Ein Besuch der Unibibliothek mit meterhohen Regalen voll mit gebundenen Ausgaben von Cell, Nature und Science hat mich schnell eines Besseren belehrt. Und noch während ich die nicht enden wollenden Bücherregale entlang irrte, wandelte sich der Wunsch, alles zu lesen, in ein Gefühl um, das ich im Lauf von Studium, Promotion und Postdoc nie los geworden bin: Wie kann ich hier nur den Überblick behalten?
    Erst im Lauf der Zeit sind mir die Dimensionen der Frage wirklich klar geworden: Es gibt aktuell weit über zehntausend Journals, in denen mehr oder weniger regelmäßig neue Artikel erscheinen. Die Datenbank Pubmed, in der Veröffentlichungen aus den Lebenswissenschaften archiviert werden, hat aktuell mehr als zwanzig Millionen Publikationen gespeichert. Jeden Tag kommen über 2500 neue Papers dazu. Natürlich ist nur ein Bruchteil davon wirklich relevant für die eigene Forschung. Nur: Wie finde ich den? Wie verpasse ich keine wichtigen Veröffentlichungen? Und wie werde ich das schlechte Gewissen los, nie genug Papers zu lesen?
    Geleitet von diesen Fragen haben wir in den letzten Monaten Recently entwickelt  – und jetzt veröffentlicht.

    Recently ist eine App für Wissenschaftler im Life-Science-Sektor und für Ärzte. Das Prinzip ist einfach: Basierend auf persönlich relevanten Papers schlägt Recently neue Publikationen vor. So kann man bequem auf dem Laufenden bleiben mit allem, was in dem eignen Forschungsgebiet publiziert wird. Recently ist eine Art personalisiertes Journal.
    Besonders relevante Papers kann man „liken“. Das beeinflusst direkt die zukünftigen Literaturvorschläge. Was nicht passt, kann man „disliken“ (endlich! Der dislike Button!) und das Paper verschwindet aus dem Feed. Relevante Publikationen kann man auch einfach per Email verschicken oder per Twitter oder Facebook mit Kollegen teilen.
    Wir haben Recently so designt, dass es auf normalen Computern, genauso wie auf mobilen Geräten gut aussieht. So ist es möglich, auch einfach mal zwischendurch, auf dem Weg zur Arbeit oder in einem langweiligen Talk durch die vorgeschlagenen Papers zu scrollen und Interessantes zu entdecken.
    Am besten also einfach hier klicken und sich anmelden, testen, weitersagen, und wiederkommen um nach neuen und relevanten Papers zu schauen. Das Ganze ist kostenlos und ich würde mich sehr über Feedback freuen. Im Hilfeteil der App gibt’s dazu ein Formular, sonst gerne auch einfach hier einen Kommentar schreiben. Es gibt auch eine Seite mit weiteren Hintergrundinformationen und ich werde sicher in den nächsten Wochen noch mehr zu Recently schreiben.

    Das Bild ganz oben ist modifiziert von Hyperbole and a Half
  • Ein Nachruf auf Christian de Duve

    Ein Nachruf auf Christian de Duve

    Vergangenen Samstag ist Christian de Duve im Alter von 95 Jahren gestorben. Er war ein Pionier der Zellbiologie. De Duve hat bei Experimenten zur Aktivität von Enzymen in Zellextrakten zufällig die Lysosomen und die Peroxysomen entdeckt. Beides sind Zellkompartimente, die bei Abbaureaktionen eine zentrale Rolle spielen und die sich durch geeignete Zentrifugationsmethoden aus Zellextrakten isolieren lassen. Er hat einen epochalen Beitrag zum Verständnis des Aufbaus und der Struktur der eukaryontischen Zelle geleistet, also auch von menschlichen Körperzellen. Er ist dafür 1974 mit dem Nobelpreis ausgezeichnet worden.
    De Duves Entdeckungen erleben aktuell eine Renaissance durch die Aufklärung der molekularen Mechanismen und Wirkungsweisen der Autophagie, also eines zellulären Selbstreinigungsmechanismus, bei dem das Lysosom eine zentrale Rolle spielt. Das de-Duve-Institut in Brüssel hat anlässlich seines neunzigsten Geburtstags einen Artikel abgedruckt, der sein Leben und Wirken gut zusammenfasst (pdf).
    Ich habe de Duve 2011, also mit 93 Jahren, in Lindau beim Nobelpreisträgertreffen als Redner erlebt. Meine Mitschrift seines Vortrags von damals gebe ich hier leicht verändert wieder. De Duves Vortrag handelte nicht von seiner außerordentlichen Leistung als Forscher. Er präsentierte ein Sieben-Punkte-Programm zur Rettung der Welt. Er war der einzige Laureat, der mit Standing Ovations bedacht wurde.
    De Duve nutze seinen Gehstock an Stelle eines Laserpointers um auf Details seiner insgesamt vier Folien umfassenden Präsentation hinzuweisen. Das war egal, sein Vortag war einfach zu verstehen, seine Botschaft war klar: Was macht uns Menschen anders und was müssen wir tun, um weiter existieren zu können?
    Er zeigte auf, wie erfolgreich der Mensch ist. Mit gerade mal dem Vierfachen an Gehirnmasse eines Schimpansen beherrschen wir die Welt mit der Folge, dass wir sie heillos überbevölkern. Über sechs Milliarden von uns leben derzeit auf der Erde, mit einem rasanten Anstieg in den letzten 200 Jahren. Die Überbevölkerung geht mit Problemen einher:

    • Die Rohstoffresourcen gehen zur Neige
    • Die Biodiversität geht zurück
    • Wälder gehen zurück und Wüsten breiten sich aus
    • Der Klimawandel
    • Die Energiekrise
    • Umweltverschmutzung
    • Übervolle Ballungsräume
    • Konflikte und Krieg.

    De Duve mahnte nicht nur, er bot Lösungsvorschläge an. Ein Sieben-Punkte-Programm zur Rettung der Welt mit ansteigender Wahrscheinlichkeit, dass die Vorschläge zur Lösung der Probleme beitragen:

    1. Nichts tun. Laut de Duve keine Lösung, wir sollten unser Schicksal nicht den Darwinschen Mechanismen überlassen.
    2. Menschen genetisch optimieren. Derzeit keine Option, da dies zum einen ein ethisches Dilemma aufwirft und zum anderen technisch nicht realisierbar ist.
    3. Die Plastizität des Gehirns ausnützen und neu “verdrahten”. Das dadurch bessere Menschen geschaffen werden ist unwahrscheinlich, technisch jedoch möglicherweise machbar.
    4. Die Religionen aufrufen zum Wandel beizutragen. De Duve sieht hier großes Potential. Es gebe immerhin rund eine Milliarde Katholiken, das Wort der Religionsführer hätte Gewicht. Er mahnte, Religionen sollten sich weniger mit dem Leben nach dem Tod beschäftigen als damit, was jetzt aktuell auf der Erde passiert. Zwischenapplaus aus dem Publikum.
    5. Umweltschutz. Er betonte, es sei wichtig, die Umwelt nicht zu verschmutzen, kritisierte jedoch gleichzeitig, dass die Umweltbewegung religiöse Züge trüge mit der Natur als der heiligen Kuh. De Duve ist anderer Meinung: Nature is not good, nature is not bad, nature is indifferent.
    6. Chancengleichheit für Frauen. De Duve betonte, er habe keine feministische Agenda, jedoch seien Frauen gesellschaftlich benachteiligt und das müsse sich ändern. Er stellte Wichtigkeit der Frauen auf die frühkindliche Erziehung heraus. Auch dieser Punkt wurde mit Zwischenapplaus bedacht.
    7. Bevölkerungskontrolle. “Wir sind zu viele Menschen auf der Erde, also muss die Zahl verringert werden. Er wog ab, wie das zu erreichen sei, der zivilisiertere Weg wäre Geburtenkontrolle anstatt Menschen zu töten. Da kann man ihm nur beipflichten.

    Wir werden alle das Phänomen kennen, mit zunehmendem Alter eine andere Perspektive auf die Zeit zu bekommen. Als Kleinkind hat man kein Konzept für Zeit. In der Grundschule dauern Wochen Monate und die Sommerferien scheinen endlos. Später wird in Semestern gedacht, dann in Jahren und die Zeit scheint zu verfliegen. Ich kann mir gut vorstellen, das man mit 93 wieder einen anderen Blickwinkel auf die Zeit hat. Einen noch größeren Rahmen. De Duve ist ein alter Mann, er wirkte jedoch weise.
    De Duve hat in Belgien im Kreis seiner Familie Sterbehilfe in Anspruch genommen. Dort ist das legal. In Deutschland hingegen klafft hier eine gesetzliche Lücke, die Oliver Tolmein in seinem Biopolitik Blog der FAZ über Jahre dokumentiert und mit konservativem Tenor kommentiert hat. Das Blog ist leider inzwischen geschlossen.

  • Spektakuläre Naturaufnahme – die Geburt eines LKW Fahrers

    Noch nie vorher konnte die Geburt eines Truckfahrers mit der Kamera beobachtet werden. Der oben eingebundene Schnappschuß ist einem besonders geistesgegenwärtigen Naturfotografen gelungen und, wie ich finde, zu Recht auf dem Cover des National Geographic Magazins, zu dessen gleichnamigem Verlag die ScienceBlogs ja seit fast genau zwei Jahren gehören.
    Wir bleiben im Tierreich, und um diesem Blogpost doch noch den nötigen Ernst zu verleihen, hier noch der Hinweis auf einen schon etwas älteren Artikel der BBC News: Komplett zugedröhnte australische Zwergkängurus machen Kornkreise in Opiumfeldern.

    We have a problem with wallabies entering poppy fields, getting as high as a kite and going around in circles. Then they crash.

    Lara Giddings, government official

    Truckfahrer via Schlecky Silberstein
     
     

  • Big Data in der Biologie – Wie die Integration großer Datensätze zu neuem Wissen führt

    Big Data in der Biologie – Wie die Integration großer Datensätze zu neuem Wissen führt

    Wissenschaftliche Daten zu publizieren ist das Ziel eines jeden akademischen Forschungsprojektes. Leider kommt das nur relativ selten vor. Es dauert eben seine Zeit, bis die Experimente geplant und durchgeführt, die Daten analysiert, das Manuskript geschrieben, eingereicht und akzeptiert ist. Insofern ist das, was mir in den letzten drei Wochen widerfahren ist durchaus Grund zum Feiern: Ich habe drei Papers publiziert.

    Zum Glück sind alle drei Veröffentlichungen thematisch verwandt, so dass ich sie hier in einem Blogpost vorstellen kann. Ganz allgemein geht es darum, biologisch relevante Schlussfolgerungen aus den großen Datensätzen zu ziehen. Big Data in der Biologie.
    In den letzten Jahren haben sich die High-Throughput Analysemethoden in der Molekularbiologie ständig verbessert, so dass inzwischen mit relativ wenig Aufwand, große Datensätze durch die Analyse komplexer Proben gewonnen werden können. Omics ist der Modebegriff, der dabei auf alles angewendet wird, was nicht direkt an einer Hand abzuzählen ist. Also: Genomics für mRNA Analysen, Proteomics für die Analyse komplexer Proteinproben, und Metabolomics für, leicht zu erraten, die großflächige Untersuchung der zellulären Metabolite. Diese Omics Begriffe werden wirklich inflationär benutzt. Auf Wikipedia existiert sogar eine Liste mit ein paar Dutzend dieser mehr oder weniger populären Omics Begriffe.
    Leider reicht es häufig nicht mehr aus zu sagen was in einer biologischen Probe drin ist und einfach eine Liste der identifizierten zellulären Bestandteile zu publizieren. Inzwischen sind quantitative, vergleichende Analysen gefragt, um beispielsweise ein und denselben Bakterienstamm mit und ohne bestimmte Mutationen  zu untersuchen. Diesen Ansatz haben wir in dem Borras et al. Paper gewählt. Wie verändert sich das Proteom von Mycoplasma pneumoniae wenn wichtige Gene ausgeknockt werden? Es kommt auf das Gen an, und auf die Analysemethode.
    Für das Wodke et al. Paper haben wir ein Modell des gesamten Zellmetabolismus von M. pneumoniae mit quantitativen, experimentellen Daten abgeglichen und dabei eine erstaunliche Entdeckung gemacht: Das Bakterium nutzt die ihm zur Verfügung stehende Energie nur sehr ineffizient für Wachstum. Ein Großteil der Energie entfällt auf einfache Instandhaltungsreaktionen, wie beispielsweise die Regulierung des intrazellulären pHs.
    Außerdem zeigen wir in dem Paper, dass wir durch das Verknüpfen der Parametersätze an unterschiedlichen Zeitpunkten entlang der Wachstumskurve von M. pneumoniae aus einem statischen Modell ein quasidynamisches Modell generieren können. Dieser Ansatz vereinfacht die Modellierung komplexer biologischer Vorgänge ungemein, da dynamische Modelle zwar genauer sein können, jedoch mit zunehmender Komplexität schnell unlösbar werden. Unser Modell ist so gut, dass wir damit vorhersagen können, was passiert wenn einzelne Gene oder Kombinationen aus zwei Genen ausgeknockt werden.

    Für das dritte Paper haben wir erst die Metabolite in M. pneumoniae gemessen, und wo technisch möglich quantifiziert, und dann diese Ergebnisse mit Proteomics- und Genomics-Ergebnissen verbunden. Dank dieses neuen, integrativen Ansatzes können wir erklären, wie M. pneumoniae mit den zu Verfügung stehenden Aminosäuren und Nukleobasen haushaltet. Wir haben sozusagen Angebot und Nachfrage von grundsätzlichen zellulären Bausteinen untersucht.
    M. pneumoniae ist ein sehr einfaches Bakterium mit nicht einmal 700 Genen – ein Grund, warum wir es als Modellorganismus verwenden. Das Bakterium hat dementsprechend auch einen sehr einfachen Stoffwechsel. Es nimmt Glucose als Energiequelle auf, metabolisiert diese zu Pyruvat in der Glyolyse und sekretiert schließlich Milch- und Essigsäure. Mit Hilfe von Enzymassays können wir die Geschwindigkeit messen, mit der M. pneumoniae die Glucose metabolisiert.
    Durch die quantitative Bestimmung der intrazellulären Glycolyseintermediate und der bei deren Umsetzung beteiligten Enzyme des zellulären Energiestoffwechsels, können wir nach Integration mit der Geschwindigkeit, in der die Glucose metabolisiert wird, die intrazelluläre Aktivität der Glycolyseenzyme abschätzen. Biochemiker machen das in vitro mit aufgereinigten Komponenten, wir haben versucht, einen Eindruck von der Enzymaktivität direkt in der Zelle zu bekommen.
    Soweit ein kurzer Abriss der Inhalte der drei Publikationen. Natürlich habe ich das nicht alles alleine erforscht, und ich schreibe ja auch schon die ganze Zeit von „wir„. In den Papers steht detailliert wer wie und was beigetragen hat, namentlich möchte ich hier dennoch Judith Wodke erwähnen, die ich die letzten Jahre als Doktorandin betreut habe und die jetzt wieder in Berlin ist. Mit Ricardo Gutierrez und Josep Marcos habe ich seit Jahren zur quantitativen Messung intrazellulärer Metabolite kooperiert. Beide sind sonst mit der Untersuchung von Dopingproben beschäftigt. Großer Dank gilt natürlich auch allen anderen Autoren, insbesondere Manuel Liebeke, Edda Klipp und Luis Serrano.
    Heute Nachmittag feiern wir die Papers. Traditionell mit Cava, Pan con Tomate, Queso und Jamon auf der Terrasse meines – jetzt ehemaligen – Institutes. Außerdem ist heute noch Sant Jordi und heute Abend spielt Bayern gegen Barça. Ich habe das Gefühl, es wird ein langer Tag – und eine lange Nacht.

    ResearchBlogging.orgWodke, J., Puchałka, J., Lluch-Senar, M., Marcos, J., Yus, E., Godinho, M., Gutiérrez-Gallego, R., dos Santos, V., Serrano, L., Klipp, E., & Maier, T. (2013). Dissecting the energy metabolism in Mycoplasma pneumoniae through genome-scale metabolic modeling Molecular Systems Biology, 9 DOI: 10.1038/msb.2013.6
    ResearchBlogging.orgBorràs, E., Espadas, G., Mancuso, F., Maier, T., Chiva, C., & Sabidó, E. (2013). Integrative quantitation enables a comprehensive proteome comparison of two Mycoplasma pneumoniae genetic perturbations Molecular BioSystems DOI: 10.1039/C3MB25581F
    ResearchBlogging.orgMaier, T., Marcos, J., Wodke, J., Paetzold, B., Liebeke, M., Gutiérrez-Gallego, R., & Serrano, L. (2013). Large-scale metabolome analysis and quantitative integration with genomics and proteomics data in Mycoplasma pneumoniae Molecular BioSystems DOI: 10.1039/C3MB70113A

    Verwandte Artikel im Blog:

    Alles was Sie schon immer über das Innenleben eines Bakteriums wissen wollten

    Ein Modellorganismus für die Systembiologie