追問專訪·周昌鬆教授 | 靜息大腦如何“嚴陣以待”處理各類任務?

作者:佚名 來源:金融界 日期:22-05-19

        記憶作為一種高級腦功能,一直是腦與認知科學的重要研究範疇,為了帶大家深入了解記憶及其背後的機製,我們將以記憶研究領域的問題進行追問,以多人聯動的方式,帶領大家了解記憶背後的原理以及目前的最新進展。

        上一期我們從學習記憶、本能記憶以及成癮的細胞分子機製角度出發,采訪了中科院生物物理所研究員李岩。在采訪過程中,李岩研究員對“腦功能的底層構架策略是什麼?”發起追問。本期我們特意邀請了香港浸會大學周昌鬆教授分享他的研究和觀點。按照慣例,周昌鬆教授也提出了自己最想知道答案的一個追問,我們將在文末公布該問題。

        以下為具體文字內容。

        請您簡單介紹一下目前的研究領域,以及您選擇該領域的原因。

        周昌鬆:我們團隊目前研究主要集中在大腦複雜的連接結構和它的動態模式的分析和建模,也就是從物理科學、係統科學和複雜性的視角對大腦進行分析和建模,並探究這些複雜的結構和動力學與一些認知活動或者腦的一些疾病和障礙的關係。我們之所以選擇這個研究方向,一是基於我們的研究背景,像我自己的研究背景是物理和非線性複雜係統科學,從原理上來說,大腦是一個非常複雜的耦合非線性動態網絡係統,所以我們關注它的複雜的連接結構,它的自發動力學的產生和湧現,以及這些複雜動力學模式可能在腦的功能中的作用。我個人覺得這是我們研究神經係統和腦的組織和運作原理的一個重要的視角和方向。

        Q:您研究過程中使用的方法有哪些?可以解決什麼問題?

        周昌鬆:前麵提到大腦本質上是一個非常複雜的多時空尺度的多層次的非線性相互作用的係統。現在影像學的發展能在不同精度和尺度上對它的結構和活動進行更好的數據記錄。麵對這些複雜數據,我們需要從統計物理學和複雜係統等視角進行分析,因為在很多場合中,這些複雜的腦活動被當作一種隨機性或者噪聲來處理。

        基於係統科學、物理科學的概念,這些複雜動力學可能是係統自組織湧現出來的一些活動,所以我們會用到一些方法,比如從複雜網絡的角度對它進行分析和刻畫;從物理科學的耦合係統角度,使用特征模的概念和方法對它進行分析;動力學上,對這個係統不同的層麵進行建模,基於非線性神經網絡動力學對它進行分析和建模;用統計物理(比如平均場)的方法來分析不同尺度的動力學之間這種湧現的一些組織特征,包括單個神經元的無規則發放、集群上出現的振蕩和雪崩的臨界性等融合和統一的機理等等。這些都可以利用生物合理的神經動力學模型和理論分析來揭示複雜數據下所蘊含的運作原理。

        在我們建模和分析的過程中,我們也考慮到這個係統作為一個生物功能係統受到一些條件限製,比如能量的限製,結構上布線距離最優化的限製,甚至代謝廢物引起衰退的風險,以及它的動力學能支持一些複雜模式或者是支持計算所需要的優化關係。這些方麵跟具體功能係統的運作似乎不是直接相關,在很多研究中不予考慮,但它卻是這樣一個非線性神經網絡係統處理的基本機製,所以我們比較關注利用一些物理的、非線性科學的、複雜性科學的方法對這些問題進行分析和建模。

        我們感興趣解決的問題包括幾個方麵。一個是剛才講到在約束下的多尺度動力學,在神經科學研究裏,不同研究領域一般會對發放率和振蕩等做獨立分析,而我們希望了解這些動力學底層共同的相互關係和運作原理。這是建模方麵的工作。

        另外一方麵,建模分析是想要了解這些複雜動力學(比如說個體之間差異表征)會不會跟認知能力有關係,在我們處理活動的時候,腦的基本運作狀態怎樣影響對外界信息的處理和響應以及行為上的表征。再者,從理論上我們通過建模可以在高維係統裏尋找一些重要的參數組合對動力學的影響,以及這些影響或者波動性在正常的人群中,或者是從正常到疾病的過渡過程中,哪些地方可能發生了一些比較敏感的重要變化。比如在腦網絡研究中常常被忽略的大量弱連接可能有很重要的動力學和功能作用。這些是我們采用這些研究方法,想要回答的一些問題。

        Q:大腦是一個複雜的網絡係統,對於我們每時每刻接收到的大量外界信息,它是如何高效處理的?

        周昌鬆:這個問題我覺得是一個非常核心的問題,也是腦科學研究中真正的挑戰。以我目前對神經科學的有限了解,神經科學大部分處理方法是,當外界信號傳入大腦時,通過測量不同腦區的腦響應活動來理解這個過程。在這樣的研究裏麵,我們經常把大腦自主產生的一些內稟腦活動當作某種背景的隨機過程來處理,我們在分析外界信號的時候,也是分析它在基準上發生的一種變化。

        從複雜性非線性科學的角度來說,大腦本身就以高能耗為代價組織出很多複雜的活動,這些腦活動與腦網絡結構、生理和解剖之間的關係是怎樣的;更重要的是,它有怎樣的功能意義,它如何影響我們對外界信息的處理,我覺得這方麵的認識還剛處於初步階段,是目前係統神經科學探索的前沿。我們現在越來越多地通過影像學觀察到靜息態的功能網絡結構,以及在很多情況下,靜息態下的腦活動以一種時空傳播模式表現出某種大小不一臨界雪崩的關聯活動,都表明這些腦活動對於外界信號進入大腦之後的處理是有很多影響的,但具體是如何影響的,這方麵值得進一步深入的研究。所以大腦如何進行高效處理,還沒有一個非常清晰的回答。

        但有一些初步的跡象,比如臨界性可能對於信息處理提供了一個非常好的基準態,即當外界信號來的時候,它可以做出非常敏感的響應;這種動態模式具有很高的神經表征的容量,有需要的時候可以在不同的狀態之間進行非常有效的快速切換等等。我們最近的工作表明,神經回路具有“少即是多(less is more)”的組織特征,用更少的發放和連接代價在興奮-抑製平衡的模塊化回路上實現這種響應敏感、表征豐富的臨界動力學狀態。這些特征應該是神經係統中複雜動力學賦予該係統的高效節能處理的基本能力,但這種波動性很強的自發活動在具體的功能過程中是怎樣進行控製和利用的,是實驗神經科學、理論神經科學、計算神經科學的一個前沿的方向。

        Q:不同的認知能力,如情景記憶、執行功能和信息處理等,能否用神經動力學模型預測?

        周昌鬆:這是一個很好的問題,可能可以分成兩個層麵來思考。一個就是我們的這些功能,比如認知能力,它的底層神經生物學基礎是什麼。這個是目前智能研究裏的前沿課題。以前關於認知能力的研究,大部分是從行為學上考察不同認知能力之間的關係,比如看到流體智力、晶體智力、記憶等等這些不同智力之間既有相對獨立的結構也有關聯,但是對於支撐這些能力的底層腦網絡係統,我們還不清楚。現在網絡神經科學的前沿研究之一就是,企圖通過不同腦區之間形成的一些網絡跟功能行為之間的關係來揭示這個問題。

        第二個層麵的問題就是模型能不能預測這些能力。如果對第一個層麵問題的研究比較清晰,同時我們的模型,特別是大尺度腦網絡模型也能抓住支撐不同能力的這種多層次網路結構和動力學,那麼原則上,這個模型是可以去預測這些能力的。

        Q:記憶是人類認識自我的基石,您的團隊近期在團隊在《細胞報告》(Cell Reports)發文,解碼記憶過程中腦電波動與可塑性背後的秘密,可否跟我們分享一下這篇文章的研究見解?

        周昌鬆:這篇研究是基於浙江大學馬歡老師團隊前不久在《神經元》(Neuron)上發表的文章,他們發現一種神經元從興奮到抑製的突觸可塑性對於動物的學習和記憶來說非常重要,他們將一個與突觸可塑性相關的蛋白酶敲除後,發現這種可塑性消失了,小鼠的短期記憶沒有受影響,但是通過睡眠將短期記憶轉化為較長期記憶的過程受損了,行為上也受損了。而且他們在實驗上也看到一些跟記憶和學習相關的波,比如γ波和θ波,都受損了。我們就是在這樣的一些腦活動和行為的實驗基礎上,以及微觀可塑性變化的啟發下,想從建模的角度來理解從微觀的可塑性變化到回路的動力學到行為上的跨尺度研究。

        我們的模型是一個兩層網絡,第一層是短期記憶的存儲,第二層是通過興奮—抑製突觸可塑性將短期記憶轉化為更長期記憶。第一層和第二層之間或者第二層內部興奮到抑製的可塑性可以在模型上操作——沒有可塑性或者有可塑性。通過這個模型研究,我們重複了實驗上看到的現象,在一個恰當的模型參數範圍裏,有可塑性的網絡可以很好地進行記憶的存取和恢複,如果可塑性被消除,記憶就受損了。該模型揭示,記憶之所以受損是因為沒有興奮到抑製的可塑性的第二層網絡會過度興奮,過度興奮致使在前一層不同記憶的驅動下,第二層網絡不能產生不一樣的激發模式來記錄第一層的記憶。

        如果是過度興奮,原則上可以通過使興奮和抑製恢複平衡,把記憶拯救回來。我們選用的方法是在第二層的抑製性神經元上加一個刺激。在真實的網絡裏麵,我們看到γ波和θ波受到了損傷,是不是說刺激信號處於γ頻段或θ頻段對過興奮會有比較明顯的作用?我們發現,如果用θ波為間隔的方波去刺激抑製性神經元,抑製性神經元被激發,產生抑製,興奮性神經元的活動就會減弱。但是,如果是θ波的話,頻率為8赫茲,間隔太長,這個抑製不夠強,網絡還是處於過度興奮狀態。如果在8赫茲的間隔中加上1~2個間隔為γ波的方波,也就是40赫茲的方波,這時候抑製會加強,可以達到一個比較好的興奮和抑製平衡和記憶拯救效果。一個有趣的反常現象是,如果在中間再加一些方波最終就成了一係列方波,變成了完全的γ頻段,本來隨著更多的抑製性神經元被激發,抑製應該更強,但實際上反而出現了抑製後的反彈,興奮反倒加強了,記憶拯救效果又變差了。

        我們發現θ和γ雙頻嵌套的刺激模式能最有效地把網絡恢複到比較平衡的狀態,可以對前一層的記憶進行表征和學習。我們的這項工作,一方麵可能揭示了為什麼在真實的生物係統裏,我們經常在學習記憶的研究中看到θ和γ嵌套作用的現象,它可能對於維持學習記憶很重要;另一方麵一旦記憶功能受損了,我們可能可以用這種θ加γ的雙頻耦合刺激更好地恢複回路的運作能力。

        Q:這一研究發現對於與學習記憶能力受損密切相關的腦疾病,雙頻耦合刺激可能是更為有效的選擇方案,目前臨床上是否已經推廣應用?

        周昌鬆:我們前麵講到的這個刺激在我們跟馬老師研究的係統裏可能是一個合適的解決方法,至於這種刺激是否可以推廣到一般的與學習記憶相關的係統或腦疾病中,我們不敢妄下定論。在疾病研究當中,對大腦進行這一雙頻耦合的調製應該是可以嚐試的。因為在大部分的調製研究和應用裏,我們其實不太清楚應該采取什麼樣的刺激,比如深度腦刺激的研究中,你要采取怎樣的頻率或者頻率組合,在臨床上經常是以試錯為主,而且個體上可能存在差異性,效果並不確定,可能有的人有作用,有的人沒有作用。

        在這個模型的研究中,如果這個模型能抓住係統的關鍵的結構和動力學特征,那麼它可以通過分析對外界刺激的響應,提出可能的刺激信號的設計,這對於臨床來說可能有參考意義。這個工作發表後,我們希望從事臨床方麵工程開發的同事可能會有興趣去嚐試,在不同場景下這一頻率組合是不是可以提高治療的作用,我們非常期待在這方麵真的有幫助。

        Q:大腦無時無刻不在接收著海量的信號,記憶也不斷發生著動態變化。大腦是如何完成動態可塑又保證一定的穩定性?如何基於紛繁複雜的腦活動選擇行為輸出?那些本能相關的信息如何在意識下影響行為,又如何在特定時刻浮出水麵到意識上?中科院生物物理所李岩研究員提到:“腦功能的底層構架策略是什麼?”對此,您怎麼看?

        周昌鬆:我們前麵有講到,大腦是一個非常複雜的網絡體係,在我們發育和成長過程中,它已經把我們生活中的很多知識和經驗整合到結構和動力學裏了,所以就算外界沒有輸入信息,靜息態的腦活動也體現了個體的某種特征,可以預測我們的認知能力。

        因為大腦是可塑的,所以在與外界信號相互作用過程中,外界信息會對它內稟的活動產生影響,內稟活動又會對外界信號的響應有影響,在複雜係統的語言上說是一個結構—動力學—外界刺激共演化(co-evolution)的係統。比如內在的一些記憶跟我們學習到的新記憶,在一個相互連接的網絡係統裏是通過動力學和可塑性相互作用的,新的記憶跟舊的記憶之間會進行新的整合,在記憶的固化過程中進行重組。從動力學的意義上來說,這些我們還沒有完全很好地理解,但是從動力學係統相互作用的角度來說,這樣的一個圖像是比較自然的,與很多關於記憶的研究是吻合的。

        我們最近發表在《物理評論快報》(Physical Review Letters)的工作分析了大腦的結構能產生怎樣的動力學模式。我們用磁共振和數據的模型都可以看到,大腦結構連接網絡有多層次的模塊化,這些模塊使得我們可以在不同層次上進行特異的處理,又可以在更大尺度上進行整合。它對應的動力學,也就是我們前麵提到的全腦處於某種臨界狀態,它可以在不同的尺度上很快地進行切換,跟這相關的概念我們叫做功能性分離和整合的處理。結構的層次模塊化和動力學的臨界性使得大腦處於一種複雜且最優的狀態,在功能性分離和整合的模式間頻繁地切換並維持整體的平衡。

        Q:不同的認知過程對大腦活動提出了不同的要求,靜息大腦如何配置功能性組織,以支持不同的認知表型?

        周昌鬆:人的認知確實有不同的表型,比如流體智力、晶體智力、記憶、反應速度或創造力等等,這些能力在行為上表現出來是相對獨立的,大腦怎樣構建一個結構和功能來支持這樣的能力,目前還是認知神經科學研究的一個前沿問題,對人工智能的發展也極為重要。但是我們可以從不同認知能力對這個係統的兩個比較競爭性的要求來理解,它其實就是功能的特異處理和功能的整合。當我們要處理某一方麵的信息時,一些特異化的腦區或者腦係統要進行分離處理,不要受到其他係統太多的幹擾,但是處理完了不同的信息後它們又需要整合來形成更高級的認知。

        不同能力對這兩個方麵都是有需求的,但是對這兩方麵的要求可能不太一樣。大腦在一個基準靜息態就要形成這樣一種組織方式,即它應該在有需要的時候可以快速過渡到認知任務所要求的組織形態,比如說某一個子係統,在一個處理過程中它可以盡量分化出來進行處理,而在有需要的時候很快又整合起來。從這種角度我們就可以更好地理解大腦,無論是腦的結構,還是它的動力學,就應該有一些模塊化的處理方式,它內部有很緊密的相互作用和快速的交流和通訊來進行特異化處理,它的層次可以很局部,也可以很廣闊。就是帶著這樣的想法,我們對腦網絡的研究一直關注的是這種多層次的模塊化結構。前麵提到的腦結構連接網絡多層次的模塊化的組織架構原則上可以提供這一功能的基本要求。

關鍵字:靜息大腦

分享到:
新浪微博 微信 騰訊微博 更多
更多評論
//站內統計 //百度統計 //穀歌統計 //站長統計