(For English version see below)
Ereignisse, die Jahre zurückliegen, sind uns oft präsenter als das Mittagessen von gestern. Woran liegt das?
Nicolas Schuck: Es ist auf jeden Fall nicht so, dass das Gehirn eine Art Videorekorder hätte und alles aufzeichnet und abspeichert. Aus der Forschung wissen wir, dass das Gehirn diesen Prozess aktiv steuert. Die bekanntesten Theorien sprechen hier von ‚Tagging and Capture‘ an neuronalen Synapsen, das heißt, es gibt physiologische Mechanismen, mit denen das Gehirn ‚entscheiden‘ kann, dass ein Erlebnis besonders wichtig ist und ihm mehr neuronale Ressourcen zugeschrieben werden sollen.
Was sind das für Erlebnisse, die mehr Ressourcen bekommen?
Zum einen sind das Ereignisse, die in uns emotional sehr viel auslösen, also uns besonders glücklich oder traurig machen. Diese Gefühle haben eine Menge hormoneller und neuronaler Konsequenzen für die Prozesse der Gedächtnisspeicherung. Zum anderen wirken sich Erlebnisse aus, die überraschend sind. Dazu forschen wir auch hier an der Fakultät. Ein Ereignis muss dann gar nicht besonders emotional sein, sondern wird anscheinend auch dann tiefer abgespeichert, wenn ich es nicht erwartet habe.
Was bedeutet „tiefer abgespeichert“?
Die sogenannte Konsolidierungstheorie besagt, dass Erlebnisse initial in einer Struktur des Gehirns, die wir Hippocampus nennen, abgespeichert werden. Im Laufe der nächsten Stunden, Tage, Wochen und manchmal sogar Monate werden sie aus diesem temporären Speicher in ein längerfristiges Archiv verschoben, das an verschiedenen Stellen in der Großhirnrinde, dem sogenannten Kortex, liegt. Den emotionalen und überraschenden Erlebnissen wird dabei mehr Zeit gewidmet und wir behalten mehr Details. Für ein Verständnis des Gedächtnisses ist es zentral zu wissen, dass die Abspeicherung nicht nur im Moment des Erlebens stattfindet, sondern auch in der Zeit danach.
Was passiert bei der Abspeicherung genau?
Konsolidierung heißt im Grunde genommen, dass im Kortex Langzeitverbindungen angelegt werden, die unter anderem verschiedene sensorische Aspekte einer Erfahrung miteinander verbinden – zum Beispiel die visuell wahrgenommenen Gesichtszüge einer Person mit dem zugehörigen Namen. Dadurch werden Erinnerungen teilweise unabhängig vom Hippocampus, in dem die Erfahrung ursprünglich abgespeichert wurde. Wir wissen heute aber, dass der Hippocampus in vielen Fällen weiterhin wichtig für den Abruf bleibt, weil er hilft, im Kortex Abgespeichertes später auch wiederzufinden.
In Ihrer Forschung geht es unter anderem darum, wie man diese Prozesse unterstützen und verbessern kann, etwa durch Schlaf. Was untersuchen Sie genau?
Schlaf ist insgesamt extrem wichtig. Alle Säugetiere schlafen, und dauerhafter Schlafentzug kann tödlich sein. Interessant ist, dass Schlaf für das Gehirn unglaublich energieintensiv ist und nicht, wie man denken könnte, der Energieeinsparung dient. Ein wichtiger Grund für den Energieverbrauch ist, dass während dieser Zeit die langfristigen Erinnerungen angelegt werden. In unserer Forschung haben wir herausgefunden, dass schon kurze Nickerchen helfen können – bei der Gedächtnisverarbeitung, aber auch bei kreativen Prozessen. Wir und andere Forscher*innen konnten sogar zeigen, dass auch sogenannte Mikropausen von 10 bis 20 Sekunden, ohne Schlaf, einen Effekt haben.”
Es reicht also, einmal kurz durchzuatmen?
Wie genau die Pause optimalerweise aussehen muss, wissen wir noch nicht. Aber bei unseren Studien sollen sich die Probandinnen und Probanden zum Beispiel die Reihenfolge von Bildern merken. Wenn man ab und zu zwischen zwei Bildern 20 Sekunden pausiert, löst das bereits Prozesse im Gehirn aus, die einen positiven Effekt auf das Lernen haben. Die Personen sitzen weiter vor dem Bildschirm, bekommen aber keinen neuen Input. Unsere Untersuchungen zeigen, dass in diesen Phasen das eben Gesehene im Gehirn noch einmal aktiviert wird. Die Teilnehmenden spielen die Bilderreihenfolge also im Kopf noch mal durch – und können sie sich so besser merken. Die Reaktivierung ist ganz wichtig dafür, eine langfristige Gedächtnisleistung herzustellen.
All diese Prozesse finden im Kopf der Studienteilnehmenden statt. Wie machen Sie sie sichtbar?
Wir machen viele Studien mithilfe von Magnetresonanztomographie, kurz MRT. Mit meiner Arbeitsgruppe habe ich Analysetechniken von MRT Daten weiterentwickelt, um sie für unsere Forschung nutzbar zu machen. Die Prozesse im Gehirn laufen nämlich unglaublich schnell ab und waren mit dem MRT wegen der minimal verzögerten Abbildung oft nicht gut darstellbar. Die von uns und anderen entwickelten Verfahren erlauben es uns nun, diese kurzen, schnellen Aktivierungen zu sehen.
Parallel arbeiten wir mit der Elektroenzephalografie (EEG) – der Messung der elektrischen Spannung auf der Kopfhaut, die durch Gehirnaktivität entsteht. Hier hat man nochmal eine bessere zeitliche Auflösung als im MRT, allerdings ist die räumliche Verortung im Gehirn nicht so gut und wir wissen oft nicht so genau, woher die Signale genau kommen. Daher kombinieren wir beide Methoden und schließen die Probandinnen und Probanden, die die Aufgaben im MRT lösen müssen, in manchen Experimenten auch mit Elektroden an das EEG an.
In einer der spannendsten Studien, die wir bisher gemacht haben, haben die Leute sogar zwei Nächte im MRT geschlafen, während wir gleichzeitig EEG-Daten aufgezeichnet haben. Das war wahnsinnig aufwendig und die Entwicklung hat sehr lange gedauert – meine Postdoktorandinnen und -doktoranden hatten viele schlaflose Nächte. Die Ergebnisse stehen noch aus, aber sie werden uns helfen, besser zu verstehen, wie eine gestellte Gedächtnisaufgabe im Gehirn während der Nacht verarbeitet und als Erinnerung abgespeichert wird.
Welche besonderen Herausforderungen ergeben sich daraus, dass die Teilnehmenden während des Versuchs schlafen?
Typischerweise zeigt man den Probandinnen und Probanden in neurowissenschaftlichen Experimenten einen bestimmten Stimulus, zum Beispiel ein Foto von einem Gesicht. Im MRT sieht man, wo das Gehirn reagiert. Dann zeigt man ein Foto von einer Blume und schaut sich die Unterschiede in der Verarbeitung an. Wir wissen also, was diese Person aktuell verarbeitet. In unserer Studie geht es aber um Prozesse während Schlaf- oder Ruhephasen, das heißt wir haben von außen keine Kontrolle darüber, was die Person gerade abruft.
Unser Ansatz ist daher, dass die Teilnehmenden erst eine Aufgabe bearbeiten und wir dabei schauen, was im Gehirn passiert. Dann schlafen die Personen oder machen eine Pause – und da untersuchen wir, ob die gleichen Muster sichtbar werden. So können wir sehen, ob die Inhalte während dieser Phasen reaktiviert werden.
Helfen Ihnen bei der Analyse auch Anwendungen der künstlichen Intelligenz (KI)?
Auf jeden Fall. Nehmen wir als Beispiel den Bereich des Gehirns, der visuelle Informationen verarbeitet, den visuellen Cortex: Allein hier haben wir im MRT circa 25.000 Datenpunkte, die alle zwei Sekunden ein Signal abgeben. Werden diese bei einer Aufgabe aktiviert, etwa wenn sich die Testperson zehn verschiedene Gesichter merken soll, wollen wir wissen, wie sich das Aktivierungsmuster zwischen den Gesichtern über diese 25.000 Datenpunkte hinweg unterscheidet. Das ist menschlich nicht zu bewältigen, daher benutzen wir schon seit vielen Jahren Algorithmen zur Mustererkennung, die dem sehr ähnlich sind, was in der KI verwendet wird.
Glauben Sie, dass KI irgendwann die Leistung des menschlichen Gehirns erreichen kann?
Das menschliche Gehirn ist unendlich kompliziert: Es besteht aus 85 bis 100 Milliarden Nervenzellen und jede hat ungefähr 1000 Verbindungen. Um ein Stück Gehirn von der Größe eines Salzkorns zu beschreiben, bräuchte man schon ungefähr ein Gigabyte Daten. Dennoch versucht die Wissenschaft, diesen gesamten ‚Kabelsalat‘ – das sogenannte menschliche Konnektom – zu kartografieren. Das wird noch viele Jahrzehnte dauern, aber manche Forschende glauben, dass man das Gehirn mit so einer genauen Abbildung simulieren könnte.
Eine andere Denkschule setzt dagegen darauf, die Prinzipien zu verstehen und zu abstrahieren. Und da sind wir dann schon bei ChatGPT und Co., die auf neuronalen Netzwerken basieren. In diesen Modellen fehlen viele biologische Details, so gibt es keine verschiedenen Rezeptortypen wie im Gehirn, aber die Prinzipien der Datenverarbeitung sind ähnlich. Und die Komplexität aktueller KI-Modelle kommt mittlerweile auch nah an die Größenordnung des Gehirns heran.
Ich denke, die große Frage ist, ob an der richtigen Stelle abstrahiert wurde oder nicht doch wichtige Komponenten des ‚Systems Gehirn‘ weggelassen wurden. Zum Beispiel ist KI unglaublich energieintensiv, während das menschliche Gehirn mit drei Mahlzeiten am Tag eine ähnliche Rechenleistung aufbringt. Schon die erste Generation von Chatbots wie GPT3 musste, um Sprache zu erlernen, ein Vielfaches an Input bekommen als ein menschliches Kind – etwa 40 Millionen Seiten Text. Heute ist das noch ein Vielfaches mehr. Man sieht also: Unser Gehirn ist sehr effektiv und schnell – und das kann die KI noch nicht abbilden. Warum das so ist, ist unklar. Alle Tricks des Gehirns aus Millionen Jahren Evolution haben wir anscheinend noch nicht rausgefunden.
Info:
Prof. Dr. Nicolas Schuck ist 2022 vom Max-Planck-Institute for Human Development in Berlin an die Fakultät für Psychologie und Bewegungswissenschaft der Universität Hamburg gekommen. Er leitet den Arbeitsbereich „Kognitive Neurowissenschaften“ und hat eine von drei Open-Topic-Professuren der Universität inne. Diese werden im Rahmen der Exzellenzstrategie des Bundes und der Länder gefördert. Die Professur von Nicolas Schuck ist im Potenzialbereich Veränderungsmechanismen angesiedelt.
English:
The Superpower of Napping
What role do sleep and breaks play in storing information in the brain—and can both be used strategically? This is what Nicolas Schuck investigates at the Faculty of Psychology and Human Movement Science at the University of Hamburg. A conversation about the archives in our heads, nights in the MRI scanner, and three meals a day.
Events that happened years ago often seem more present to us than what we had for lunch yesterday. Why is that?
Nicolas Schuck: The brain definitely does not function like a video recorder that captures and stores everything. Research shows that the brain actively regulates this process. The best-known theories refer to “tagging and capture” at neuronal synapses. In other words, there are physiological mechanisms that allow the brain to “decide” that a particular experience is especially important and should be allocated more neural resources.
What kinds of experiences receive more resources?
On the one hand, these are events that trigger strong emotions—making us particularly happy or sad. Such emotions have numerous hormonal and neuronal consequences for memory storage processes. On the other hand, surprising experiences also have an impact. This is something we study here at the faculty as well. An event does not necessarily have to be highly emotional; it appears to be stored more deeply simply if it was unexpected.
What does “stored more deeply” mean?
According to consolidation theory, experiences are initially stored in a structure of the brain called the hippocampus. Over the following hours, days, weeks, and sometimes even months, they are transferred from this temporary storage site to a longer-term archive located in various areas of the cerebral cortex. Emotional and surprising experiences are given more time during this process, and we retain more details. For understanding memory, it is essential to recognize that storage does not occur only at the moment of the experience, but also in the time afterward.
What exactly happens during storage?
Consolidation essentially means that long-term connections are formed in the cortex, linking different sensory aspects of an experience—for example, visually perceived facial features with the corresponding name. As a result, memories become partially independent of the hippocampus, where the experience was originally stored. However, we now know that in many cases the hippocampus remains important for retrieval, as it helps locate the information stored in the cortex later on.
Your research also explores how these processes can be supported and improved, for example through sleep. What exactly are you investigating?
Sleep is extremely important overall. All mammals sleep, and chronic sleep deprivation can be fatal. Interestingly, sleep is incredibly energy-intensive for the brain and does not serve to conserve energy, as one might assume. A major reason for this energy consumption is that long-term memories are established during this time. In our research, we have found that even short naps can help—not only with memory processing, but also with creative processes. We have even been able to show that so-called micro-breaks of 10 to 20 seconds, without sleeping, can have an effect.
So it’s enough to just pause briefly and take a breath?
We do not yet know exactly what the optimal form of a break looks like. In our studies, for example, participants are asked to remember the order of images. If they pause for 20 seconds between two images from time to time, this already has positive effects on memory performance. The participants remain seated in front of the screen but receive no new input. Our investigations show that during these phases, what was just seen is reactivated in the brain. Participants mentally replay the sequence of images—and are thus better able to remember it. This reactivation is crucial for establishing long-term memory performance.
All of these processes take place in the minds of the study participants. How do you make them visible?
We conduct many studies using magnetic resonance imaging (MRI). Together with my research group, I have contributed to further developing this technique to make it usable for our research. Brain processes occur incredibly quickly and were often difficult to capture with MRI due to minimal imaging delays. However, there are now methods that allow us to observe these brief, rapid activations.
In parallel, we work with electroencephalography (EEG)—measuring the electrical voltage on the scalp generated by brain activity. EEG offers even better temporal resolution than MRI, but spatial localization within the brain is less precise, and we often cannot determine exactly where the signals originate. Therefore, we combine both methods, and in some experiments participants solving tasks in the MRI scanner are also connected to EEG electrodes.
In one of the most exciting studies we have conducted so far, participants even slept for two nights in the MRI scanner while we simultaneously recorded EEG data. This was enormously complex and took a long time to develop—my postdoctoral researchers had many sleepless nights. The results are still pending, but they will help us better understand how a given memory task is processed in the brain during the night and stored as a memory.
What particular challenges arise from the fact that participants sleep during the experiment?
In neuroscientific experiments, participants are typically shown a specific stimulus, such as a photograph of a face. In the MRI, we can see where the brain reacts. Then we show a photo of a flower and examine differences in processing. We therefore know what the person is currently processing. In our study, however, we are concerned with processes during sleep or rest phases—meaning we have no external control over what the person is retrieving at any given moment.
Our approach is therefore to have participants first complete a task while we observe what happens in the brain. They then sleep or take a break—and during that time we examine whether the same patterns become visible. This allows us to see whether the content is reactivated during these phases.
Do applications of artificial intelligence (AI) also help you with the analysis?
Absolutely. Take, for example, the area of the brain that processes visual information, the visual cortex: in MRI alone, we have around 25,000 data points here, each emitting a signal every two seconds. If these are activated during a task—such as when a test participant must memorize ten different faces—we want to know how the activation pattern differs between faces across these 25,000 data points. This is impossible to handle manually, so for many years we have used pattern-recognition algorithms very similar to those employed in AI.
Do you believe that AI could one day reach the performance of the human brain?
The human brain is infinitely complex: it consists of 85 to 100 billion nerve cells, each with approximately 1,000 connections. To describe a piece of brain tissue the size of a grain of salt would already require about one gigabyte of data. Nevertheless, science is attempting to map this entire “tangle of wires”—the so-called human connectome. This will take many decades, but some researchers believe that the brain could be simulated with such a detailed map.
Another school of thought focuses instead on understanding and abstracting the underlying principles. This brings us to systems such as ChatGPT, which are based on neural networks. These models lack many biological details—there are no different receptor types as in the brain—but the principles of data processing are similar. The complexity of current AI models is also approaching the order of magnitude of the brain.
I believe the key question is whether abstraction has been applied in the right places—or whether important components of the “brain system” have been omitted. For example, AI is incredibly energy-intensive, whereas the human brain achieves comparable computational performance with three meals a day. Even the first generation of chatbots had to process many times more input than a human child to learn language—around 40 million pages of text. Today, that amount is many times higher. This shows that our brain is highly efficient and fast—and AI cannot yet replicate that. Why this is the case remains unclear. Apparently, we have not yet uncovered all the tricks the brain has developed over millions of years of evolution.
Info:
Prof. Dr. Nicolas Schuck moved in 2022 from the Max Planck Institute for Human Development in Berlin to the Faculty of Psychology and Human Movement Science at the University of Hamburg. He heads the Cognitive Neuroscience research group and holds one of three Open Topic Professorships at the university. These are funded under the federal and state Excellence Strategy. His professorship is assigned to the focus area of mechanisms of change.