Autor: Tobias

  • Geklonte Bilder – Hintergründe zum manipulierten Stammzellpaper

    Geklonte Bilder – Hintergründe zum manipulierten Stammzellpaper

    Wenn Teile von Abbildungen in wissenschaftlichen Publikationen kopiert sind, dann ist das verdächtig. Wenn diese auch noch unterschiedliche Beschriftungen tragen und in unterschiedlichem Kontext gezeigt werden, dann ist das wissenschaftliches Fehlverhalten und Vorsatz kann unterstellt werden – ganz egal ob dies für die Kernaussage der Veröffentlichung relevant ist oder nicht.
    In einem in der letzten Woche in Cell publizierten Paper aus dem Labor von Shoukhrat Mitalipov fielen einer anonymen Wissenschaftlerin mehrere Unstimmigkeiten auf. Sie hat dies auf der Plattform Pubpeer dokumentiert, einer Seite auf der nach dem offiziellen Peer-Review wissenschaftliche Veröffentlichungen diskutiert und kritisiert werden können. Am auffälligsten dabei sind die Duplikationen von Bildausschnitten. Zusätzlich sind der anonymen Wissenschaftlerin noch weitere Unstimmigkeit in einer Abbildung aufgefallen, in der Genepxressionsdaten von vermeintlich unterschiedlichen biologischen Repliken verglichen werden.
    Besonderere Brisanz wird diesem Fall dadurch verliehen, dass das Paper über die Herstellung embryonaler Stammzellen aus Körperzell-DNA und Eizellehülle in den Medien starke Resonanz fand. Und vor dem Hintergrund, dass ähnliche Versuche embryonale Stammzellen herzustellen, 2006 als Fälschung entlarvt wurden. Dementsprechend hoch ist auch aktuell die mediale Berichterstattung über die Unstimmigkeiten, zum Beispiel  hier, hier oder hier.
    Ich möchte hier versuchen, auf ein paar Fragen einzugehen, die vielleicht nicht detailliert genug in den großen Online-Blättern zur Sprache kommen.

    Versehen oder Vergehen?

    Mitalipov beschwichtigt in einem Interview in Nature und erklärt, es habe sich um ein Versehen gehandelt, das möglicherweise durch einen zu hastigen Begutachtungsprozess nicht entdeckt wurde. Meiner Meinung nach wurden die Bilder in Abbildung 6D und S5 vorsätzlich vertauscht und unterschiedlich beschriftet (siehe Abbildung hier oben). Wer Bilder am Mikroskop erstellt und speichert, sorgt dafür, dass diese eindeutig benannt und geordnet abgelegt werden. Wer eine veröffentlichungsreife Abbildung anfertigt, vergewissert sich mehrfach, dass das was man da sieht, das ist, was gezeigt werden soll. Wieso der Maßstab auf dem selben Bild einmal fehlt und einmal vorhanden ist, verstehe ich ebenfalls nicht.

    Sind die Fehler relevant für die Kernaussage der Veröffentlichung?

    Bei den vertauschten und zurechtgeschnittenen mikroskopischen Aufnahmen kann ich das nicht beurteilen. Die Fehler in Abbildung S6 hingegen sind jedoch sehr nahe dran. Ein Kernaspekt der Studie betrifft die Ähnlichkeit der hergestellten Stammzellen zu natürlichen embryonalen Stammzellen. Um das zu beurteilen, werden Genexpressionsmuster verglichen. Je besser diese korrelieren, desto mehr ähneln sich die Zellen. Man sieht das gut in Abbildung 7A. Generell werden solche Experimente in technischen sowie biologischen Replikaten durchgeführt (meistens drei), um die Stärke der Korrelation der Genexpressionsmuster besser beurteilen zu können. Das sind die Autoren in Abbildung S6 schuldig geblieben (hier unten).
    Abbildung S6 aus dem Paper. Die Grafiken oben mitte und rechts sind identisch. Die Grafiken in der Mitte links und unten rechts sehen laut anonymem Gutachter bei PubPeer zu gut aus, um von biologischen Replikaten zu stammen.

    Hat der Peer-Review Prozess versagt?

    Nein. Versagt hat die Redaktion von Cell. Ich gehe eigentlich davon aus, dass die meisten Wissenschaftsmagazine – mit Sicherheit aber Cell – inzwischen Software besitzen um Fälschung in Abbildungen zu detektieren. Warum eine solche Software in diesem Fall nicht eingesetzt wurde, ist rätselhaft. Deutlich kritikwürdiger als der Reviewprozess ist also die mangelhafte redaktionelle Arbeit beim Elsevier – Flaggschiff.

    War der Peer-Reveiw Prozess zu schnell?

    Laut Angaben von Cell wurde das Paper am 30. April eingereicht, am 3. Mai überarbeitet und am selben Tag akzeptiert. Meiner Erfahrung nach spiegeln diese Daten nicht den Ablauf des tatsächlichen Begutachtungsprozesses wider. Normalerweise wird ein eingereichtes Manuskript als erstes redaktionell bewertet und entschieden, ob die Veröffentlichung überhaupt zu Gutachtern geschickt wird. Diese werden dann mit der Bitte kontaktiert, das Manuskript innerhalb von drei Wochen zurück zu schicken (nachzulesen auch hier). Danach kann eine Publikation entweder abgelehnt werden (sehr häufig) oder nach Bearbeitung der Anmerkungen der Gutachter durch die Autoren akzeptiert werden.
    Um die offiziellen Begutachtungszeiten für Manuskripte niedrig zu halten (und die Ablehnungsraten hoch), greifen Journals zu einem Kniff: Papers, die stark überarbeitet werden müssen, werden abgelehnt. Allerdings wird den Autoren ermöglicht, das verbesserte Manuskript beim gleichen Magazin erneut einzureichen. Bei etwaiger Veröffentlichung gilt dann das zweite Einreichdatum, und das kann sehr nahe beim Datum liegen, an dem das Paper zur Veröffentlichung akzeptiert wurde.
    Seltsam mutet daher die Antwort von Mitalipov auf die Frage an, warum solche Eile bei der Publikation der Daten bestand. Der Hauptautor der Studie nimmt Cell in Schutz und sagte dazu zu Nature, er wollte die Veröffentlichung beschleunigen, um die Ergebnisse bei einem Meeting im Juni zu präsentieren.
    Seit wann müssen Daten publiziert sein, um bei einem Meeting präsentiert werden zu können? Und seit wann hat ein Autor einen solch großen Einfluss auf die Publikationspolitik eines Journals?
    Autoren müssen bei der Veröffentlichung eines Papers immer etwaige Interessenkonflikte angeben. Wie werden wohl bei Cell Interessenkonflikte von Editoren behandelt?

  • Recently – einfach mal den Überblick behalten

    Recently – einfach mal den Überblick behalten

    Relativ zu Anfang meines Biologistudiums hatte ich eine wahnwitzige Idee. Wie wäre es denn, wenn ich alle Papers, die je publiziert wurden, lesen würde? So nebenher, neben dem Studium. Ein Besuch der Unibibliothek mit meterhohen Regalen voll mit gebundenen Ausgaben von Cell, Nature und Science hat mich schnell eines Besseren belehrt. Und noch während ich die nicht enden wollenden Bücherregale entlang irrte, wandelte sich der Wunsch, alles zu lesen, in ein Gefühl um, das ich im Lauf von Studium, Promotion und Postdoc nie los geworden bin: Wie kann ich hier nur den Überblick behalten?
    Erst im Lauf der Zeit sind mir die Dimensionen der Frage wirklich klar geworden: Es gibt aktuell weit über zehntausend Journals, in denen mehr oder weniger regelmäßig neue Artikel erscheinen. Die Datenbank Pubmed, in der Veröffentlichungen aus den Lebenswissenschaften archiviert werden, hat aktuell mehr als zwanzig Millionen Publikationen gespeichert. Jeden Tag kommen über 2500 neue Papers dazu. Natürlich ist nur ein Bruchteil davon wirklich relevant für die eigene Forschung. Nur: Wie finde ich den? Wie verpasse ich keine wichtigen Veröffentlichungen? Und wie werde ich das schlechte Gewissen los, nie genug Papers zu lesen?
    Geleitet von diesen Fragen haben wir in den letzten Monaten Recently entwickelt  – und jetzt veröffentlicht.

    Recently ist eine App für Wissenschaftler im Life-Science-Sektor und für Ärzte. Das Prinzip ist einfach: Basierend auf persönlich relevanten Papers schlägt Recently neue Publikationen vor. So kann man bequem auf dem Laufenden bleiben mit allem, was in dem eignen Forschungsgebiet publiziert wird. Recently ist eine Art personalisiertes Journal.
    Besonders relevante Papers kann man „liken“. Das beeinflusst direkt die zukünftigen Literaturvorschläge. Was nicht passt, kann man „disliken“ (endlich! Der dislike Button!) und das Paper verschwindet aus dem Feed. Relevante Publikationen kann man auch einfach per Email verschicken oder per Twitter oder Facebook mit Kollegen teilen.
    Wir haben Recently so designt, dass es auf normalen Computern, genauso wie auf mobilen Geräten gut aussieht. So ist es möglich, auch einfach mal zwischendurch, auf dem Weg zur Arbeit oder in einem langweiligen Talk durch die vorgeschlagenen Papers zu scrollen und Interessantes zu entdecken.
    Am besten also einfach hier klicken und sich anmelden, testen, weitersagen, und wiederkommen um nach neuen und relevanten Papers zu schauen. Das Ganze ist kostenlos und ich würde mich sehr über Feedback freuen. Im Hilfeteil der App gibt’s dazu ein Formular, sonst gerne auch einfach hier einen Kommentar schreiben. Es gibt auch eine Seite mit weiteren Hintergrundinformationen und ich werde sicher in den nächsten Wochen noch mehr zu Recently schreiben.

    Das Bild ganz oben ist modifiziert von Hyperbole and a Half
  • Ein Nachruf auf Christian de Duve

    Ein Nachruf auf Christian de Duve

    Vergangenen Samstag ist Christian de Duve im Alter von 95 Jahren gestorben. Er war ein Pionier der Zellbiologie. De Duve hat bei Experimenten zur Aktivität von Enzymen in Zellextrakten zufällig die Lysosomen und die Peroxysomen entdeckt. Beides sind Zellkompartimente, die bei Abbaureaktionen eine zentrale Rolle spielen und die sich durch geeignete Zentrifugationsmethoden aus Zellextrakten isolieren lassen. Er hat einen epochalen Beitrag zum Verständnis des Aufbaus und der Struktur der eukaryontischen Zelle geleistet, also auch von menschlichen Körperzellen. Er ist dafür 1974 mit dem Nobelpreis ausgezeichnet worden.
    De Duves Entdeckungen erleben aktuell eine Renaissance durch die Aufklärung der molekularen Mechanismen und Wirkungsweisen der Autophagie, also eines zellulären Selbstreinigungsmechanismus, bei dem das Lysosom eine zentrale Rolle spielt. Das de-Duve-Institut in Brüssel hat anlässlich seines neunzigsten Geburtstags einen Artikel abgedruckt, der sein Leben und Wirken gut zusammenfasst (pdf).
    Ich habe de Duve 2011, also mit 93 Jahren, in Lindau beim Nobelpreisträgertreffen als Redner erlebt. Meine Mitschrift seines Vortrags von damals gebe ich hier leicht verändert wieder. De Duves Vortrag handelte nicht von seiner außerordentlichen Leistung als Forscher. Er präsentierte ein Sieben-Punkte-Programm zur Rettung der Welt. Er war der einzige Laureat, der mit Standing Ovations bedacht wurde.
    De Duve nutze seinen Gehstock an Stelle eines Laserpointers um auf Details seiner insgesamt vier Folien umfassenden Präsentation hinzuweisen. Das war egal, sein Vortag war einfach zu verstehen, seine Botschaft war klar: Was macht uns Menschen anders und was müssen wir tun, um weiter existieren zu können?
    Er zeigte auf, wie erfolgreich der Mensch ist. Mit gerade mal dem Vierfachen an Gehirnmasse eines Schimpansen beherrschen wir die Welt mit der Folge, dass wir sie heillos überbevölkern. Über sechs Milliarden von uns leben derzeit auf der Erde, mit einem rasanten Anstieg in den letzten 200 Jahren. Die Überbevölkerung geht mit Problemen einher:

    • Die Rohstoffresourcen gehen zur Neige
    • Die Biodiversität geht zurück
    • Wälder gehen zurück und Wüsten breiten sich aus
    • Der Klimawandel
    • Die Energiekrise
    • Umweltverschmutzung
    • Übervolle Ballungsräume
    • Konflikte und Krieg.

    De Duve mahnte nicht nur, er bot Lösungsvorschläge an. Ein Sieben-Punkte-Programm zur Rettung der Welt mit ansteigender Wahrscheinlichkeit, dass die Vorschläge zur Lösung der Probleme beitragen:

    1. Nichts tun. Laut de Duve keine Lösung, wir sollten unser Schicksal nicht den Darwinschen Mechanismen überlassen.
    2. Menschen genetisch optimieren. Derzeit keine Option, da dies zum einen ein ethisches Dilemma aufwirft und zum anderen technisch nicht realisierbar ist.
    3. Die Plastizität des Gehirns ausnützen und neu “verdrahten”. Das dadurch bessere Menschen geschaffen werden ist unwahrscheinlich, technisch jedoch möglicherweise machbar.
    4. Die Religionen aufrufen zum Wandel beizutragen. De Duve sieht hier großes Potential. Es gebe immerhin rund eine Milliarde Katholiken, das Wort der Religionsführer hätte Gewicht. Er mahnte, Religionen sollten sich weniger mit dem Leben nach dem Tod beschäftigen als damit, was jetzt aktuell auf der Erde passiert. Zwischenapplaus aus dem Publikum.
    5. Umweltschutz. Er betonte, es sei wichtig, die Umwelt nicht zu verschmutzen, kritisierte jedoch gleichzeitig, dass die Umweltbewegung religiöse Züge trüge mit der Natur als der heiligen Kuh. De Duve ist anderer Meinung: Nature is not good, nature is not bad, nature is indifferent.
    6. Chancengleichheit für Frauen. De Duve betonte, er habe keine feministische Agenda, jedoch seien Frauen gesellschaftlich benachteiligt und das müsse sich ändern. Er stellte Wichtigkeit der Frauen auf die frühkindliche Erziehung heraus. Auch dieser Punkt wurde mit Zwischenapplaus bedacht.
    7. Bevölkerungskontrolle. “Wir sind zu viele Menschen auf der Erde, also muss die Zahl verringert werden. Er wog ab, wie das zu erreichen sei, der zivilisiertere Weg wäre Geburtenkontrolle anstatt Menschen zu töten. Da kann man ihm nur beipflichten.

    Wir werden alle das Phänomen kennen, mit zunehmendem Alter eine andere Perspektive auf die Zeit zu bekommen. Als Kleinkind hat man kein Konzept für Zeit. In der Grundschule dauern Wochen Monate und die Sommerferien scheinen endlos. Später wird in Semestern gedacht, dann in Jahren und die Zeit scheint zu verfliegen. Ich kann mir gut vorstellen, das man mit 93 wieder einen anderen Blickwinkel auf die Zeit hat. Einen noch größeren Rahmen. De Duve ist ein alter Mann, er wirkte jedoch weise.
    De Duve hat in Belgien im Kreis seiner Familie Sterbehilfe in Anspruch genommen. Dort ist das legal. In Deutschland hingegen klafft hier eine gesetzliche Lücke, die Oliver Tolmein in seinem Biopolitik Blog der FAZ über Jahre dokumentiert und mit konservativem Tenor kommentiert hat. Das Blog ist leider inzwischen geschlossen.

  • Kochen und Wissenschaft – mit Bildern aus dem BestenRestaurant der Welt

    Kochen und Wissenschaft – mit Bildern aus dem BestenRestaurant der Welt

    Katalonien hat eine lange kulinarische Tradition, die in der weltweit höchsten Dichte von Restaurants mit drei Michelin-Sternen gipfelt. Ferran Adrià und sein inzwischen
    geschlossenes Restaurant „El Bullí“ dürfte den meisten ein Begriff sein. Der Celler Can Roca in Girona stand lange im Schatten von Adriàs Küche. Heute ist das Restaurant, das von den drei Roca-Brüdern gegründet und geleitet wird, zum besten Restaurant der Welt gekürt worden. Auch wenn sich dadurch nichts ändert, außer dass es noch schwieriger wird, einen Tisch dort zu reservieren, ist das doch eine Meldung wert – und ein Anlass meine Fotos hier zu teilen, die ich an einem Abend im Can Roca geschossen habe. Rund 25 Gänge mit dazugehörigen Weinen.
    Kochen und Wissenschaft ist auf keinen Fall so weit auseinander, wie es anfangs scheinen mag. Wer ein Ei kocht, denaturiert Proteine, und die Herstellung von Bier und Wein ist pure Mikrobiologie. Wer Fleisch grillt, Brot toastet oder Pommes brät, verlässt sich auf die Maillard-Reaktion, bei der Aminosäuren mit reduzierenden Kohlehydraten reagieren, die dabei braun werden und Geschmacksstoffe entwickeln.
    Harvard hat sich dem Thema „Wissenschaft und Kochen“ mit einer eigenen Veranstaltungsreihe genähert, und viele bekannte Restaurantchefs eingeladen, inklusive Ferran Adria vom El Bullí und Carme Ruscalleda vom Restaurant Sant Pau in Sant Pol, eine Stunde nördlich von Barcelona gelegen und ebenfalls mit drei Michelin Sternen dekoriert. Als ich 2011 einen Freund in Harvard besucht habe, hat sie dort zufällig gerade einen Vortrag über die Maillard-Reaktion gehalten. Auf Catalan, aber mit einem Dolmetscher. Ein zweiter Assistent hat während ihres Vortrags im Hintergrund Migas gekocht, eine spanische Spezialität aus altem Brot, bei der die Maillard-Reaktion ebenfalls geschmacksgebend ist.
    Carme Ruscalleda in Harvard beim Vortrag über die Maillard-Reaktion.

    Migas ist ein sehr altes, traditionelles Gericht. Ganz im Gegenteil zur Molekularküche, die von Ferran Adrià wenn nicht erfunden, so doch maßgeblich mitbestimmt wurde. Entwicklungen wie künstlicher Kaviar durch Sphärisierung mit Alginat und Kalziumchlorid, oder der Einsatz von Geruchsstoffen wie zum Beispiel Zigarrenrauch in Schäumen gehen auf ihn zurück. Bislang kamen diese Impulse für die Weiterentwicklung dessen, was in der Küche produziert wird häufig von den Köchinnen und Köchen selbst.
    Ich wundere mich, warum nicht mehr Naturwissenschaftler dabei eine Rolle spielen. Wir sind prädestiniert für die molekulare Küche. Wir experimentieren, wir verstehen die Chemie hinter den Gerichten, wir haben Laborerfahrung und kennen uns mit den benutzten Geräten aus. Versuchsanleitungen sind nichts anderes als Rezepte und wenn ein Experiment wiederholt wird, dann wird das nachgekocht, wir sprechen also schon die gleiche Sprache.
    Ich habe zusammen mit meinem Nachbarn Giancarlo Fiori, einem Sternekoch aus Chile, der auf den Fotos vom Can Roca auch zu sehen ist, jedenfalls das Labor schon einmal zum Kochstudio umfunktioniert. Die Ergebnisse waren vielversprechend und zum Teil sogar genießbar. Ich denke, ich werde im nächsten Blogpost vorstellen, was wir genau gekocht haben. Dieser hier soll den Profis Ruscalleda, Roca und Adrià vorbehalten bleiben. Als kleines Bilderrätsel hier dennoch schon mal ein Teaser: Was ist das?

  • Spektakuläre Naturaufnahme – die Geburt eines LKW Fahrers

    Noch nie vorher konnte die Geburt eines Truckfahrers mit der Kamera beobachtet werden. Der oben eingebundene Schnappschuß ist einem besonders geistesgegenwärtigen Naturfotografen gelungen und, wie ich finde, zu Recht auf dem Cover des National Geographic Magazins, zu dessen gleichnamigem Verlag die ScienceBlogs ja seit fast genau zwei Jahren gehören.
    Wir bleiben im Tierreich, und um diesem Blogpost doch noch den nötigen Ernst zu verleihen, hier noch der Hinweis auf einen schon etwas älteren Artikel der BBC News: Komplett zugedröhnte australische Zwergkängurus machen Kornkreise in Opiumfeldern.

    We have a problem with wallabies entering poppy fields, getting as high as a kite and going around in circles. Then they crash.

    Lara Giddings, government official

    Truckfahrer via Schlecky Silberstein
     
     

  • Big Data in der Biologie – Wie die Integration großer Datensätze zu neuem Wissen führt

    Big Data in der Biologie – Wie die Integration großer Datensätze zu neuem Wissen führt

    Wissenschaftliche Daten zu publizieren ist das Ziel eines jeden akademischen Forschungsprojektes. Leider kommt das nur relativ selten vor. Es dauert eben seine Zeit, bis die Experimente geplant und durchgeführt, die Daten analysiert, das Manuskript geschrieben, eingereicht und akzeptiert ist. Insofern ist das, was mir in den letzten drei Wochen widerfahren ist durchaus Grund zum Feiern: Ich habe drei Papers publiziert.

    Zum Glück sind alle drei Veröffentlichungen thematisch verwandt, so dass ich sie hier in einem Blogpost vorstellen kann. Ganz allgemein geht es darum, biologisch relevante Schlussfolgerungen aus den großen Datensätzen zu ziehen. Big Data in der Biologie.
    In den letzten Jahren haben sich die High-Throughput Analysemethoden in der Molekularbiologie ständig verbessert, so dass inzwischen mit relativ wenig Aufwand, große Datensätze durch die Analyse komplexer Proben gewonnen werden können. Omics ist der Modebegriff, der dabei auf alles angewendet wird, was nicht direkt an einer Hand abzuzählen ist. Also: Genomics für mRNA Analysen, Proteomics für die Analyse komplexer Proteinproben, und Metabolomics für, leicht zu erraten, die großflächige Untersuchung der zellulären Metabolite. Diese Omics Begriffe werden wirklich inflationär benutzt. Auf Wikipedia existiert sogar eine Liste mit ein paar Dutzend dieser mehr oder weniger populären Omics Begriffe.
    Leider reicht es häufig nicht mehr aus zu sagen was in einer biologischen Probe drin ist und einfach eine Liste der identifizierten zellulären Bestandteile zu publizieren. Inzwischen sind quantitative, vergleichende Analysen gefragt, um beispielsweise ein und denselben Bakterienstamm mit und ohne bestimmte Mutationen  zu untersuchen. Diesen Ansatz haben wir in dem Borras et al. Paper gewählt. Wie verändert sich das Proteom von Mycoplasma pneumoniae wenn wichtige Gene ausgeknockt werden? Es kommt auf das Gen an, und auf die Analysemethode.
    Für das Wodke et al. Paper haben wir ein Modell des gesamten Zellmetabolismus von M. pneumoniae mit quantitativen, experimentellen Daten abgeglichen und dabei eine erstaunliche Entdeckung gemacht: Das Bakterium nutzt die ihm zur Verfügung stehende Energie nur sehr ineffizient für Wachstum. Ein Großteil der Energie entfällt auf einfache Instandhaltungsreaktionen, wie beispielsweise die Regulierung des intrazellulären pHs.
    Außerdem zeigen wir in dem Paper, dass wir durch das Verknüpfen der Parametersätze an unterschiedlichen Zeitpunkten entlang der Wachstumskurve von M. pneumoniae aus einem statischen Modell ein quasidynamisches Modell generieren können. Dieser Ansatz vereinfacht die Modellierung komplexer biologischer Vorgänge ungemein, da dynamische Modelle zwar genauer sein können, jedoch mit zunehmender Komplexität schnell unlösbar werden. Unser Modell ist so gut, dass wir damit vorhersagen können, was passiert wenn einzelne Gene oder Kombinationen aus zwei Genen ausgeknockt werden.

    Für das dritte Paper haben wir erst die Metabolite in M. pneumoniae gemessen, und wo technisch möglich quantifiziert, und dann diese Ergebnisse mit Proteomics- und Genomics-Ergebnissen verbunden. Dank dieses neuen, integrativen Ansatzes können wir erklären, wie M. pneumoniae mit den zu Verfügung stehenden Aminosäuren und Nukleobasen haushaltet. Wir haben sozusagen Angebot und Nachfrage von grundsätzlichen zellulären Bausteinen untersucht.
    M. pneumoniae ist ein sehr einfaches Bakterium mit nicht einmal 700 Genen – ein Grund, warum wir es als Modellorganismus verwenden. Das Bakterium hat dementsprechend auch einen sehr einfachen Stoffwechsel. Es nimmt Glucose als Energiequelle auf, metabolisiert diese zu Pyruvat in der Glyolyse und sekretiert schließlich Milch- und Essigsäure. Mit Hilfe von Enzymassays können wir die Geschwindigkeit messen, mit der M. pneumoniae die Glucose metabolisiert.
    Durch die quantitative Bestimmung der intrazellulären Glycolyseintermediate und der bei deren Umsetzung beteiligten Enzyme des zellulären Energiestoffwechsels, können wir nach Integration mit der Geschwindigkeit, in der die Glucose metabolisiert wird, die intrazelluläre Aktivität der Glycolyseenzyme abschätzen. Biochemiker machen das in vitro mit aufgereinigten Komponenten, wir haben versucht, einen Eindruck von der Enzymaktivität direkt in der Zelle zu bekommen.
    Soweit ein kurzer Abriss der Inhalte der drei Publikationen. Natürlich habe ich das nicht alles alleine erforscht, und ich schreibe ja auch schon die ganze Zeit von „wir„. In den Papers steht detailliert wer wie und was beigetragen hat, namentlich möchte ich hier dennoch Judith Wodke erwähnen, die ich die letzten Jahre als Doktorandin betreut habe und die jetzt wieder in Berlin ist. Mit Ricardo Gutierrez und Josep Marcos habe ich seit Jahren zur quantitativen Messung intrazellulärer Metabolite kooperiert. Beide sind sonst mit der Untersuchung von Dopingproben beschäftigt. Großer Dank gilt natürlich auch allen anderen Autoren, insbesondere Manuel Liebeke, Edda Klipp und Luis Serrano.
    Heute Nachmittag feiern wir die Papers. Traditionell mit Cava, Pan con Tomate, Queso und Jamon auf der Terrasse meines – jetzt ehemaligen – Institutes. Außerdem ist heute noch Sant Jordi und heute Abend spielt Bayern gegen Barça. Ich habe das Gefühl, es wird ein langer Tag – und eine lange Nacht.

    ResearchBlogging.orgWodke, J., Puchałka, J., Lluch-Senar, M., Marcos, J., Yus, E., Godinho, M., Gutiérrez-Gallego, R., dos Santos, V., Serrano, L., Klipp, E., & Maier, T. (2013). Dissecting the energy metabolism in Mycoplasma pneumoniae through genome-scale metabolic modeling Molecular Systems Biology, 9 DOI: 10.1038/msb.2013.6
    ResearchBlogging.orgBorràs, E., Espadas, G., Mancuso, F., Maier, T., Chiva, C., & Sabidó, E. (2013). Integrative quantitation enables a comprehensive proteome comparison of two Mycoplasma pneumoniae genetic perturbations Molecular BioSystems DOI: 10.1039/C3MB25581F
    ResearchBlogging.orgMaier, T., Marcos, J., Wodke, J., Paetzold, B., Liebeke, M., Gutiérrez-Gallego, R., & Serrano, L. (2013). Large-scale metabolome analysis and quantitative integration with genomics and proteomics data in Mycoplasma pneumoniae Molecular BioSystems DOI: 10.1039/C3MB70113A

    Verwandte Artikel im Blog:

    Alles was Sie schon immer über das Innenleben eines Bakteriums wissen wollten

    Ein Modellorganismus für die Systembiologie

     

  • Mendeley gehört jetzt Elsevier. Und außer den beiden ist keiner begeistert.

    Mendeley gehört jetzt Elsevier. Und außer den beiden ist keiner begeistert.

    Wer schon mal ein Paper – also eine wissenschaftliche Publikation geschrieben hat, der weiß, dass da immer auch andere Publikationen zitiert werden, und im Anhang die Liste der Referenzen angefügt wird. Gerüchten zu Folge machen das Professoren kurz vor der Pensionierung noch manuell. Alle anderen benutzen dafür geeignete Software.
    Der Darling der Literaturverwaltungssoftware heißt Mendeley. Das Programm ist kostenlos, es speichert die persönliche Literaturdatenbank „in the cloud“, so dass man von überall darauf Zugriff hat. Man kann pdf-Dateien hochladen und die eigene Bibliothek mit anderen Wissenschaftlern teilen. Das ist sinnvoll, wenn man zusammen an einem Manuskript schreibt.
    Mendeley hat weiter ein benutzerfreundliches cite-while-you-write Plugin für MS-Word und steht damit in direkter Konkurrenz mit dem Platzhirsch Endnote. Ein Argument, das immer für Mendeley sprach, war die Unabhängigkeit der Software. Mendeley war frei, Mendeley war offen (mit eigener API) und Mendeley war unabhängig.
    Seit Dienstag vergangener Woche hat sich das geändert. Was Techcrunch schon vor ein paar Monaten als Gerücht gestreut hat, ist Wirklichkeit geworden: Elsevier, der größte und böseste Verlag für wissenschaftliche Publikationen, hat sich Mendeley einverleibt. Und die finden das auch noch gut!
    Nicht alle sind von dem Deal, der Mendely übrigens angeblich bis zu 100 Millionen Dollar eingebracht haben soll, begeistert, wie Beatrice Lugger auf den Scilogs und  David Dobbs im New Yorker schreibt, und manche rufen unter #mendelete zum Löschen des eigenen Accounts auf, jetzt, da dort wo Mendeley drauf steht, Elsevier drin ist.
    Das einfachste wäre sicher, schlicht die Literaturmanagementsoftware zu wechseln. Möglich ist das, die Nachteile, die durch die Mendeley-Übernahme auftreten aber häufig die gleichen: Endnote gehört Thomson Reuters (die mit dem Impact Factor), Papers wurde Ende letzten Jahres von Springer gekauft, und das, obwohl die Wissenschaftssparte von Springer selbst zum Verkauf stand oder steht. Colwiz gehört der American Chemical Society (ACS publishing) und Readcube gehört zur Nature Publishing Group (NPG). Wer also seine Literaturdaten bei einem Anbieter speichern will, der benutzerfreundlich und unabhängig von einem Verlag ist, hat es nicht einfach.
    Die eigentlich interessantere Frage ist, was Elsevier mit den Daten zu persönlichen Literaturvorlieben und den Informationen zu den wechselseitigen Beziehungen der Nutzer untereinander anstellen wird. Björn Brembs meint, im schlimmsten Fall überzieht Elsevier die pdf-teilenden Nutzer mit Copyrightklagen, im besten Fall entwickeln sie für die Nutzer kostenlose und nützliche Anwendungen, die auf die eignen Nutzerdaten aufbauen. Am wahrscheinlichsten ist, dass sie versuchen mit dem komfortablen Zugang zu pdfs Geld zu verdienen.
    Wo wir gerade bei nützlichen Tools sind. In Kürze wird Recently an den Start gehen. Recently ist das personalisierte wissenschaftliche Journal. Mit Recently ist es einfach, up to date zu bleiben mit allem, was im eigenen Forschungsgebiet publiziert wird. Recently ist eine Browser-basierte App, die auf dem Computer genauso wie auf Tabletts und Smartphones funktioniert. Und: Recently ist von Verlagen unabhängig.
    DISCLAIMER: Ich bin für Recently verantwortlich.

  • Wie hoch ist das Risiko nach Fukushima an Krebs zu erkranken?

    Wie hoch ist das Risiko nach Fukushima an Krebs zu erkranken?

    Gestern wurde der Opfer des Tōhoku-Erdbebens und des damit verbundenen Tsunami vor zwei Jahren gedacht. Die Naturkatastrophe hat fast sechzehntausend Menschen das Leben gekostet, über zweieinhalbtausend Menschen werden noch vermisst. In Folge der Flutwelle wurden auch Kraftwerke beschädigt. Durch die Verkettung unglücklicher Umstände und durch menschliches Fehlverhalten kam es in mehreren Reaktoren des Kernkraftwerks Fukushima Daiichi zur Kernschmelze. Dabei wurde auch radioaktive Strahlung frei gesetzt.
    Ich bitte um Entschuldigung, wenn ich langweile. Mir erschien es ob der gestrigen Äußerung von Claudia Roth, in der die Parteivorsitzende der GRÜNEN die sechzehntausend Toten der Naturkatastrophe groteskerweise den Reaktorhavarien zugeordnet hat, angebracht, die Zusammenhänge hier noch einmal kurz zusammen zu fassen.
    Ich möchte heute mein Blog nutzen, um dem Vorstand der GRÜNEN noch weitere, konspirative Insiderinformationen zur Reaktorkatastrophe zukommen zu lassen, denn auch Jürgen Trittin scheint die Trennung von Amt und Mandat politischem Wunsch und Wirklichkeit nicht richtig zu gelingen.
    Die WHO hat vor zwei Wochen pünktlich zum zweijährigen Jahrestag der Katastrophe in Japan eine Studie über die Gesundheitsrisiken in Verbindung mit dem Reaktorunglück publiziert. Um es kurz zu machen: Basierend auf Radioaktivitätsmessungen im Jahr nach der Katastrophe gibt es ein erhöhtes Krebsrisiko:

    • 4% für Krebserkrankungen der Organe bei Frauen, die als Kleinkind vor Ort waren
    • 6% für Brustkrebs bei Frauen, die als Kleinkind vor Ort waren
    • 7% für Leukämie bei Männern, die als Kleinkind vor Ort waren
    • 70% bei Schilddrüsenkrebs bei Frauen, die als Kleinkind vor Ort waren.

    Die Zahlenangaben zum Krebsrisiko sind relative Risiken. Für Schilddrüsenkrebs heißt das beispielsweise: 0.77% aller Frauen erkranken irgendwann in ihrem Leben an Schilddrüsenkrebs. Eine Steigerung um 70% bedeutet dass weibliche Kleinkinder, die in Reaktornähe leben, jetzt ein Risiko von 1.29% haben in ihrem Leben an Schilddrüsenkrebs zu erkranken.
    Die Zone 20 km rund um den Reaktor wurde nach dem Unglück schnell evakuiert und wurde bei den Berechnungen der WHO nicht berücksichtigt. Die Angaben beziehen sich auf die Gegend zwischen 20 km und 30 km rund um das Kraftwerk. Weiter außerhalb dieser Zone, aber noch innerhalb der Präfektur Fukushima sind die Risiken halb so hoch (siehe auch Karte oben). Die Berechnungen beziehen sich auf diese 2012 veröffentlichte Zahlen zur Strahlenbelastung.

  • Claudia Roth mahnt vor der Atomkatastrophe

    Claudia Roth mahnt vor der Atomkatastrophe

    Die HanoverGEN-Posse der frisch gewählten rot-grünen Regierung in Niedersachsen ist noch nicht richtig vom Tisch, da legt die fast so frisch wieder gewählte Parteivorsitzende der GRÜNEN nach. Claudia Roth verbreitete heute auf ihrem Facebookprofil mahnende Worte zu Fukushima – und macht aus einer Naturkatastrophe eine Atomkatastrophe:

    Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres Mal eine ganze Region und mit ihr die ganze Welt in den atomaren Abgrund blicken ließ. Insgesamt starben bei der Katastrophe in Japan 16.000 Menschen, mehr als 2.700 gelten immer noch als vermisst. Hunderttausende Menschen leben heute fernab ihrer verstrahlten Heimat. Unsere Gedanken sind heute bei den Opfern und ihren Familien. Die Katastrophe von Fukushima hat uns einmal mehr gezeigt, wie unkontrollierbar und tödlich die Hochrisikotechnologie Atom ist. Wir müssen deshalb alles daran setzen, den Atomausstieg in Deutschland, aber auch in Europa und weltweit so schnell wie möglich umzusetzen und die Energiewende voranzubringen, anstatt sie wie Schwarz-Gelb immer wieder zu hintertreiben. Fukushima mahnt.

    Diese Meldung verdreht nicht nur grotesk die Tatsachen, sie ist auf so multiple Art einfach falsch, dass es fast nicht zu glauben ist, dass dies einem Social-Media Praktikanten der GRÜNEN einfach so passiert ist. Entweder Claudia Roth hat das tatsächlich selbst gepostet, es wäre zumindest vorstellbar, oder die FDP hat in einer Guerillaaktion ihr Facebookkonto übernommen. Dem ebenfalls frisch gewählten Bundesvorstand mit Christian Lindner und Wolfgang Kubicki wäre es zu zu trauen.

    Hat-tip @gedankenabfall
  • Wie der Brain Drain Universitätsrankings verfälscht

    Wie der Brain Drain Universitätsrankings verfälscht

    Man (und Frau) mag von Universitätsranglisten und deren Aussagekraft halten was man will, interessant sind sie doch. Die Top sieben Unis des Times Higher Education World Reputation Rankings 2013 sind: Harvard (US), MIT (US), Cambridge (UK), Oxford (UK), Berkley (US), Stanford (US) und Princeton (US). Vor allem and der Spitze verändert sich die Ergebnisliste von Jahr zu Jahr nur marginal. Deutsche Universitäten sind in der Top 100 fünf Mal vertreten: LMU (Platz 44) und TU München, HU und FU Berlin, Uni Heidelberg. Im deutschsprachigen Raum ist die ETH Zürich auf Rang 20 am besten platziert.
    Kritiker solcher globalen Rankings führen mit Recht an, dass für diese Listen zu viele Informationen über einen Kamm geschoren werden: Forschung und Lehre; Fachrichtungen und Fakultäten. Beidem ist in der von Thomson Reuters durchgeführten Studie Rechnung getragen. Forschung und Lehre fließen in einem Verhältnis von 2:1 in den globalen Wert ein, die Gesamtpunktzahl ist dann für die einzelne Hochschulen aufgeschlüsselt – wenn auch nur für die weltweite Top 50. Detaillierte Informationen zu akademischen Teilgebieten und Wissenschaftssparten wurden für die Studie erhoben, sind aber zu diesem Zeitpunkt nicht gesondert publiziert worden.
    Stellt sich trotzdem die Frage, wie vor allem die großen internationalen Unterschiede zu Stande kommen: Die USA ist mit über 40 Unis innerhalb der Top 100 vertreten, Großbritannien folgt als nächstgrößte Wissenschaftsnation mit neun Unis. Wie kommt es zu dieser Vormachtstellung der USA in dem Ranking? Das Ergebnis hat Methode, es beruht auf der Art der Datenerhebung und auf der Auswahl der Befragten selbst: Etablierte Wissenschaftler weltweit – demographisch und nach Fachrichtung gewichtet.

    Der online verfügbare Fragebogen gibt Aufschluss über die Hintergründe des Rankings. Die eingeladenen Teilnehmer können für das internationale Ranking bis zu 15 Universitäten weltweit angeben. Die stark überproportional häufige Nennung von US-Unis ist neben der unbestritten hohen Qualität von Forschung und Lehre dort auch auf andere Faktoren zurück zu führen: Die USA waren und sind für ausländische Wissenschaftler ein attraktiver Ort um einen Teil der eigenen Laufbahn dort zu verbringen. Konsequenterweise können viele Befragte außerhalb der USA Auskunft geben über die Qualität der dortigen Unis. Und die ist natürlich super, schließlich war man (frau) selber dort.
    Im Gegenzug sind US-amerikanische Wissenschaftler eher weniger für längere Aufenthalte an ausländischen Forschungsinstituten bekannt. Dementsprechend beschränkt ist deren Kenntnis und Urteilsvermögen zur Qualität von Forschung und Lehre an Unis außerhalb der USA. Folglich ist das Ranking durch die einseitige Mobilitätskultur der Wissenschaftler verfälscht (a.k.a. Brain Drain) und zeigt vor allem, dass ein Forschungsaufenthalt in den USA hilfreich bei der weiteren Wissenschaftskarriere ist. Denn nur etablierte Wissenschaftler mit durchschnittlich 17 Jahren akademischer Tätigkeit – im Volksmund diejenigen, die es „geschafft“ haben, nahmen an der Umfrage teil.

    Verwandte Artikel im Blog:
    Viel hilft viel – Deutsche Wissenschaft im internationalen Vergleich
    Forschungsstandort Mittlerer Osten
    Die internationale Finanzkrise als Chance für den Wissenschaftsstandort Deutschland
    Petition zur Sicherung des EU-Forschungsbudgets unterschreiben