Zhaoyi Tian

Back

第四期神经计算建模及编程培训笔记Blur image

前言及课程测评#

本身对计算神经科学比较感兴趣加上假期没什么事,于是就报了吴思老师组的第四期神经计算建模及编程培训班,学生中博士生居多,但课程本身就是面向零基础的,所以大一报也没问题,具体内容可参考课表

博客中所有图片均出自课程PPT,感谢老师们两周的教导!

线上#

知识比较硬核,是由吴思老师组的博士生或者曾经的博士生讲授,最好先学过高数下的ODE部分,大致可见后面的笔记,每次课都有对应的作业和回放,作业比较轻松,每次作业都有对应的答案。

对于我来说,比起编程,可能更重要的是对各种模型的讲解,感觉适合作为神经计算建模的入门,此外所有回放与课程资料都是永久的,可以当作字典,等需要时再回来查。

线下(第一届类脑计算特训营)#

三天的体验非常不错,也了解到了很多东西,活动安排可见课表

第一天没有安排,我是12点到的北京,然后吃个饭后就可以出去玩(“珠海半日游”),横琴岛上没什么好玩的,甚至人都没多少,建议直接打车去香洲区那边,在靠海的堤岸上骑共享单车的感觉是非常不错的。此外或许可以提前办个港澳通行证,可以直接去澳门玩。

第二,三天上午都是和类脑计算相关的讲座,中间有茶歇;第二天下午是天琴芯实战,就是用BPU跑Brainpy的代码和复现各种发放类型,还是比较方便;第三天下午是参观广东省智能科学与技术研究院3层展厅和参观横琴规划展览馆,返程途中乘车环游横琴岛,并有专人讲解。此外与智能院老师交流环节形式也非常多样,有博士生报告,有和老师交流,有进实验室参观,同行的人比较多,所以不担心有什么压力,只不过如果所有人都不说话的话可能会有些尴尬。

报销规定如下:

根据活动报销规定,本次活动营员凭票报销国内出发地至珠海的双程交通费用(到达珠海时间为8月28日,离开珠海时间为8月31日),报销总额不超过1300元,超过部分自付,其中飞机仅报销普通经济舱、高铁仅报销二等座。市内交通费不予报销。

报销上限1300,可能并不足以覆盖掉从北京到珠海的双程交通费用,我超了150,只能报28号当天到珠海和31号离开珠海的交通费用,但是经询问,发现离开珠海时不一定要回一开始的出发地。此外食宿都报销。

Hodgkin - Huxley 神经元模型#

CmdVdt=(gˉNam3h(VENa)+gˉKn4(VEK)+gleak(VEleak))+I(t)dxdt=ϕ[αx(1x)βx],x{m,h,n}αm(V)=0.1(V+40)1exp((V+40)10)βm(V)=4.0exp((V+65)18)αh(V)=0.07exp((V+65)20)βh(V)=11+exp((V+35)10)αn(V)=0.01(V+55)1exp((V+55)/10)βn(V)=0.125exp((V+65)80)ϕ=Q10(TTbase)/10\begin{aligned} C_m \frac {dV} {dt} &= -(\bar{g}_{Na} m^3 h (V -E_{Na}) + \bar{g}_K n^4 (V-E_K) + g_{leak} (V - E_{leak})) + I(t) \quad\quad \\ \frac {dx} {dt} &= \phi[\alpha_x (1-x) - \beta_x], \quad x\in {\rm{\{m, h, n\}}} \quad\quad \\ \alpha_m(V) &= \frac {0.1(V+40)}{1-\exp(\frac{-(V + 40)} {10})} \quad\quad \\ \beta_m(V) &= 4.0 \exp(\frac{-(V + 65)} {18}) \quad\quad \\ \alpha_h(V) &= 0.07 \exp(\frac{-(V+65)}{20}) \quad\quad \\ \beta_h(V) &= \frac 1 {1 + \exp(\frac{-(V + 35)} {10})} \quad\quad \\ \alpha_n(V) &= \frac {0.01(V+55)}{1-\exp(-(V+55)/10)} \quad\quad \\ \beta_n(V) &= 0.125 \exp(\frac{-(V + 65)} {80}) \quad\quad \\ \phi&=Q_{10}^{(T-T_{base})/10} \end{aligned}

image-20250820094200625

简化神经元模型及其动力学分析#

the LIF neuron model#

Leaky Integrate-and-Fire Model 泄漏整合发放模型

τdVdt=(VVrest)+RI(t)if  V>Vth,VVresetlast  tref\tau\frac{dV}{dt}=-(V-V_{rest})+RI(t)\\ if\; V>V_{th}, V\leftarrow V_{reset}\quad last \; t_{ref}

other univariate neuron model#

the Quadratic Integrate-and-Fire model 二次整合发放(QIF)模型

τdVdt=a0(VVrest)(VVc)+RI(t)if  V>θ,VVresetlast  tref\tau\frac{dV}{dt}=a_0(V-V_{rest})(V-V_c)+RI(t)\\ if\;V>\theta ,V\leftarrow V_{reset}\quad last\;t_{ref}

The Theta neuron model Theta 神经元模型

dθdt=1cosθ+(1+cosθ)(β+I(t))\frac{d\theta}{dt}=1-\cos{\theta}+(1+\cos{\theta})(\beta+I(t))

θ 可以被看作是描述神经元状态的一种抽象方式。它类似于将神经元复杂的生物物理过程,如离子通道的开闭、膜电位的累积和变化等,映射到一个维度上,用θ 的不同取值来代表神经元处于不同的功能状态。比如,当θ 达到一定范围时,对应着神经元接近发放动作电位的状态。

The Exponential Integrate-and-Fire model 指数整合发放(ExpIF)模型

τdVdt=(VVrest)+ΔTeVVTΔT+RI(t)if  V>θ,VVresetlast  tref\tau\frac{dV}{dt}=-(V-V_{rest})+\Delta_Te^{\frac{V-V_T}{\Delta_T}}+ RI(t)\\ if\; V>\theta, V\leftarrow V_{reset}\quad last \; t_{ref}

真实神经元在接受输入电流时,当膜电位接近发放阈值(但未达到),其电位上升速率会随电位升高而加速(非线性增长),而非 LIF 模型假设的线性积累。

image-20250820160335624

The AdEx neuron model#

Adaptive Exponential Integrate-and-Fire Model 适应性指数整合发放模型

τmdVdt=(VVrest)+ΔTeVVTΔTRw+RI(t)τwdwdt=a(VVrest)w+bτwt(f)δ(tt(f))if  V>θ,VVresetlast  tref\tau_m\frac{dV}{dt}=-(V-V_{rest})+\Delta_Te^{\frac{V-V_T}{\Delta_T}}-R_w+ RI(t)\\ \tau_w\frac{dw}{dt}=a(V-V_{rest})-w+b\tau_w\sum_{t^{(f)}}\delta(t-t^{(f)})\\ if\; V>\theta, V\leftarrow V_{reset}\quad last \; t_{ref}

image-20250820154421718

other multivariate neuron model#

the lzhikevich model

dVdt=0.04V2+5V+140u+Idudt=a(bVu)if  V>θ,Vc,uu+dlast  tref\frac{dV}{dt}=0.04V^2+5V+140-u+I\\ \frac{du}{dt}=a(bV-u)\\ if \; V>\theta,\quad V\leftarrow c,u\leftarrow u+d\quad last\;t_{ref}

image-20250820161305549

the FitzHugh-Nagumo(FHN) model 具有连续性

dudt=uu33w+RIextτdwdt=v+abw\frac{du}{dt}=u-\frac{u^3}{3}-w+RI_{ext}\\ \tau\frac{dw}{dt}=v+a-bw

the Generalized Integrate-and Fire (GIF) model

τdVdt=(VVrest)+RjIj+RIdθdt=a(VVrest)b(θθ)dIjdt=kjIj,j=1,2,...,nif  V>θ,IjRjIj+Aj,VVreset,θmax(θreset,θ)\tau\frac{dV}{dt}=-(V-V_{rest})+R\sum_jI_j+RI\\ \frac{d\theta}{dt}=a(V-V_{rest})-b(\theta-\theta_\infty) \frac{dI_j}{dt}=-k_jI_j,\quad j=1,2,...,n\\ if \;V>\theta,I_j\leftarrow R_jI_j+A_j,V\leftarrow V_{reset},\theta\leftarrow max(\theta_{reset},\theta)

image-20250820163442917

突触模型#

现象学模型#

Exponential Model

τdgsyn(t)dt=gsyn(t)+gˉsynδ(t0t)\tau\frac{dg_{syn}(t)}{dt}=-g_{syn}(t)+\bar g_{syn}\delta(t_0-t)

τ\tau为时间常数,gsyng_{syn} 为突触电导,gˉsyn\bar g_{syn} 为最大电导,t0t_0为动作电位触发时刻

image-20250822205722918

Dual Exponential Model

gsyn(t)=gˉsynτ1τ2τ1τ2(exp(tt0τ1)exp(tt0τ2))g_{\text{syn}}(t) = \bar{g}_{\text{syn}} \cdot \frac{\tau_1 \tau_2}{\tau_1 - \tau_2} \left( \exp\left( -\frac{t - t_0}{\tau_1} \right) - \exp\left( -\frac{t - t_0}{\tau_2} \right) \right)

τ1\tau_1是突触衰减时间常数(控制电导下降阶段的速率),τ2\tau_2是突触上升时间常数(控制电导上升阶段的速率),等价于:

gsyn(t)=gˉsyngdgdt=gτdecay+hdhdt=hτrise+δ(t0t)g_{syn}(t)=\bar g_{syn}g\\ \frac{dg}{dt}=-\frac{g}{\tau_{decay}}+h\\ \frac{dh}{dt}=-\frac{h}{\tau_{rise}}+\delta(t_0-t)

屏幕截图 2025-08-22 205757

动力学模型#

AMPA kinetic Model

dsdt=α[T](1s)βsI=gˉs(VE)\frac{ds}{dt}=\alpha[T](1-s)-\beta s\\ I=\bar g s(V-E)

E为反转电位,决定突触是兴奋还是抑制

image-20250822211437456

NMDA synapse model

描述 NMDA 受体(N - 甲基 - D - 天冬氨酸受体)介导突触传递的动力学机制,核心聚焦 “谷氨酸结合 + 膜电位依赖的 Mg²⁺ 阻滞” 双重门控特性 :NMDA 受体的离子通道开放,必须同时满足两个条件

  1. 谷氨酸(递质)结合:突触前释放谷氨酸,与 NMDA 受体结合,对应模型中 “受体状态转换(s 相关动力学)”;
  2. 膜电位去极化解除 Mg²⁺ 阻滞:静息态(如膜电位 Vm = -65 mV)时,胞外 Mg²⁺ 会阻塞通道;只有膜电位去极化(如 Vm = -20 mV ),Mg²⁺ 才会脱离,通道才能通透离子(Na⁺、Ca²⁺、K⁺ )。
dsdt=α[T](1s)βsI=gˉsB(V)(VE)B(V)=11+exp(0.062V)[Mg2+]o3.57% 受体状态转换动力学方程 \frac{ds}{dt} = \alpha [T] (1 - s) - \beta s\\ % NMDA 受体电流方程(含 Mg²⁺ 阻滞) I = \bar{g} \, s \, B(V) \, (V - E)\\ % Mg²⁺ 阻滞的电压依赖因子 B(V) = \frac{1}{1 + \exp(-0.062V) \cdot \frac{[Mg^{2+}]_o}{3.57}}

短 / 长时程可塑性模型#

短时程可塑性#

三因子短时抑制模型(Three-Factor Short-Term Depression, STD Model)

dx(t)dt=z(t)τrecUSEx(t)δ(ttsp)dy(t)dt=y(t)τin+USEx(t)δ(ttsp)x(t)+y(t)+z(t)=1dg(t)dt=g(t)τs+gmaxy(t)\frac{d x(t)}{d t}=\frac{z(t)}{\tau_{rec }}-U_{S E} x(t) \delta\left(t-t_{s p}\right)\\ \frac{d y(t)}{d t}=-\frac{y(t)}{\tau_{i n}}+U_{S E} x(t) \delta\left(t-t_{s p}\right)\\ x(t)+y(t)+z(t)=1\\ \frac{d g(t)}{d t}=-\frac{g(t)}{\tau_{s}}+g_{max } y(t)

神经递质消耗动力学简化模型(Simplified Dynamics of Neurotransmitter Consumption Model)

dx(t)dt=1x(t)τrecUSExδ(ttsp)dg(t)dt=g(t)τs+AUSExδ(ttsp)EPSC=AUSEx\frac{d x(t)}{d t}=\frac{1-x(t)}{\tau_{r e c}}-U_{S E} x^{-} \delta\left(t-t_{s p}\right)\\ \frac{d g(t)}{d t}=-\frac{g(t)}{\tau_{s}}+A U_{S E} x^{-} \delta\left(t-t_{s p}\right)\\ EPSC =A U_{S E} x^{-}

image-20250823180310450

神经递质释放概率模型(Neurotransmitter Release Probability Model)

based on spiking time

du(t)dt=u(t)τf+USE(1u)δ(ttsp)dx(t)dt=1x(t)τdu+xδ(ttsp)dg(t)dt=g(t)τs+Au+xδ(ttsp)EPSC=Au+x,u+=limttsp0+u(t)\frac{d u(t)}{d t}=\frac{-u(t)}{\tau_{f}}+U_{S E}\left(1-u^{-}\right) \delta\left(t-t_{s p}\right)\\ \frac{d x(t)}{d t}=\frac{1-x(t)}{\tau_{d}}-u^{+} x^{-} \delta\left(t-t_{s p}\right)\\ \frac{d g(t)}{d t}=-\frac{g(t)}{\tau_{s}}+A u^{+} x^{-} \delta\left(t-t_{s p}\right)\\ EPSC=A u^{+} x^{-}, u^{+}=\lim *{t-t*{s p} \to 0^{+}} u(t)

image-20250823180012317

based on firing rate

du(t)dt=u(t)τf+USE(1u(t))R(t)dx(t)dt=1x(t)τdu+xR(t)g(t)=τsAu+xR(t)u+=u(t)+USE[1u(t)]\frac{d u(t)}{d t}=\frac{-u(t)}{\tau_{f}}+U_{S E}\left(1-u(t)\right)R(t)\\ \frac{d x(t)}{d t}=\frac{1-x(t)}{\tau_{d}}-u^{+} xR(t)\\ g(t)=\tau_sA u^+xR(t)\\ u^+=u(t)+U_{SE}[1-u(t)]

image-20250823193318951

长时程可塑性#

Spike-time Dependent Plasticity

突触权重的变化分为 LTP 和 LTD 两种情况,依赖 Δt(Δt = 突触后尖峰时间 - 突触前尖峰时间):

  • LTP(Δt > 0,前先于后):权重正向增加,增幅随 Δt 增大而指数衰减:

    Δw+=F+(w)exp(Δt/τ+)\Delta w^+=F_+(w)*exp(-|\Delta t|/\tau_+)
  • LTD(Δt ≤ 0,后先于前):权重负向减少,减幅随 |Δt | 增大而指数衰减:

    Δw=F(w)exp(Δt/τ)\Delta w^-=-F_-(w)*exp(-|\Delta t|/\tau_-)
  • 实现机制

dxjdt=xjτx+tjfδ(ttjf)dyidt=yiτy+tifδ(ttif)dwijdt=F(wij)yi(t)δ(ttif)+F+(wij)xj(t)δ(ttjf)\frac{dx_j}{dt}=-\frac{x_j}{\tau_x}+\sum_{t_j^f}\delta(t-t_j^f)\\ \frac{dy_i}{dt}=-\frac{y_i}{\tau_y}+\sum_{t_i^f}\delta(t-t_i^f)\\ \frac{dw_{ij}}{dt}=-F_-(w_{ij})y_i(t)\delta(t-t_i^f)+F_+(w_{ij})x_j(t)\delta(t-t_j^f)

image-20250823195627168

image-20250823195653404

抉择网络模型#

Spiking DM Model 脉冲决策神经网络#

CmdV(t)dt=gL(V(t)VL)Isyn(t)Isyn(t)=Iext,AMPA (t)+Irec ,AMPA(t)+Irec ,NMDA(t)+Irec ,GABA(t)C_m \frac{d V(t)}{d t}=-g_L\left(V(t)-V_L\right)-I_{s y n}(t) \\ I_{s y n}(t)=I_{\text {ext,AMPA }}(t)+I_{\text {rec }, A M P A}(t)+I_{\text {rec }, N M D A}(t)+I_{\text {rec }, \mathrm{GABA}}(t)

其中

Iext,AMPA (t)=gext,AMPA (V(t)VE)sext,AMPA (t)Irec,AMPA (t)=grec,AMPA (V(t)VE)j=1CEwjsjAMPA(t)Irec,NMDA (t)=gNMDA(V(t)VE)(1+[Mg2+]exp(0.062V(t))/3.57)j=1CEwjsjNMDA(t)Irec,GABA(t)=gGABA(V(t)Vl)j=1C1sjGABA(t)\begin{gathered} I_{\text {ext,AMPA }}(t)=g_{\text {ext,AMPA }}\left(V(t)-V_E\right) s^{\text {ext,AMPA }}(t) \\ I_{\text {rec,AMPA }}(t)=g_{\text {rec,AMPA }}\left(V(t)-V_E\right) \sum_{j=1}^{C_E} w_j s_j^{A M P A}(t) \\ I_{\text {rec,NMDA }}(t)=\frac{g_{\mathrm{NMDA}}\left(V(t)-V_E\right)}{\left(1+\left[\mathrm{Mg}^{2+}\right] \exp (-0.062 V(t)) / 3.57\right)} \sum_{j=1}^{\mathrm{C}_E} w_j s_j^{\mathrm{NMDA}}(t) \\ I_{\mathrm{rec}, \mathrm{GABA}}(t)=g_{\mathrm{GABA}}\left(V(t)-V_l\right) \sum_{j=1}^{C_1} s_j^{\mathrm{GABA}}(t) \end{gathered}

image-20250824162005938

image-20250824162238113

image-20250824162300289

Rate DM Model 速率决策神经网络#

ri=F(xi)=axib1exp(d(axib))dS1dt=F(x1)γ(1S1)S1/τsdS2dt=F(x2)γ(1S2)S2/τsx1=JES1+JIS2+I0+Inoise1+Jextμ1x2=JES2+JIS1+I0+Inoise2+Jextμ2dInoise1=Inoise1dtτ0+σdWdInoise2=Inoise2dtτ0+σdWμ1=μ0(1+c/100)μ2=μ0(1c/100)r_i = F(x_i) = \frac{ax_i - b}{1-\exp(-d(ax_i-b))}\\ \frac{dS_1}{dt} = F(x_1)\,\gamma(1-S_1)-S_1/\tau_s\\ \frac{dS_2}{dt} = F(x_2)\,\gamma(1-S_2)-S_2/\tau_s\\ x_1 = J_E S_1 + J_I S_2 + I_0 + I_{noise1} + J_{ext}\mu_1\\ x_2 = J_E S_2 + J_I S_1 + I_0 + I_{noise2} +J_{ext}\mu_2\\ dI_{noise1} = - I_{noise1} \frac{dt}{\tau_0} + \sigma dW \\ dI_{noise2} = - I_{noise2} \frac{dt}{\tau_0} + \sigma dW\\ \mu_1 =\mu_0(1+c'/100)\\ \mu_2 =\mu_0(1-c'/100)

image-20250824163919029

image-20250824163941574

兴奋抑制平衡网络#

An E-I balance neural network#

image-20250824210233805

τduiEdt=uiE+j=1KEJEErjE+j=1KIJEIrjI+IiEτduiIdt=uiI+j=1KIJIIrjI+j=1KEJIErjI+IiI\tau \frac{du_i^E}{dt} = -u_i^E + \sum_{j=1}^{K_E} J_{EE} r_j^E + \sum_{j=1}^{K_I} J_{EI} r_j^I + I_i^E\\ \tau \frac{du_i^I}{dt} = -u_i^I + \sum_{j=1}^{K_I} J_{II} r_j^I + \sum_{j=1}^{K_E} J_{IE} r_j^I + I_i^I

整体结构均为自身衰减 + 突触输入整合 + 外部输入

假设每个神经元以平均发放率μ\mu、方差σ2σ^2不规则发放:

兴奋性(E)神经元接收的 recurrent 输入的均值:  KEJEEμ+KIJEIμ~K_E J_{EE} μ+K_I J_{EI} μ

兴奋性(E)神经元接收的 recurrent 输入的方差:  KE(JEE)2σ2+KI(JEI)2σ2~K_E (J_{EE })^2 σ^2+K_I (J_{EI })^2 σ^2

平衡条件:

  • KEJEE+KIJEI0K_E J_{EE}+K_I J_{EI }≈0; 均值接近零
  • JEE1KE,JEI1KIJ_{EE}\sim\frac{1}{\sqrt{K_E} },J_{EI}\sim\frac{1}{\sqrt{K_I} } ;方差为 1 阶

Neurons connected with plastic feedforward inhibition#

前馈抑制可塑性神经元模型

image-20250824210936265

τdVidt=(VrestVi)+(giE(VEVi)+giI(VIVi)+Ib)×1gleakgiEgiE+ΔgijE,giIgiI+ΔgijIτEdgiEdt=giE,τIdgiIdt=giIΔgij=gˉWijWij can be plastic or fixed% 神经元动力学方程 \tau \frac{dV_i}{dt} = \left( V^\text{rest} - V_i \right) + \left( g_i^E (V^E - V_i) + g_i^I (V^I - V_i) + I_b \right) \times \frac{1}{g^\text{leak}}\\ % 突触后电导更新(接收脉冲时) g_i^E \to g_i^E + \Delta g_{ij}^E, \quad g_i^I \to g_i^I + \Delta g_{ij}^I\\ % 电导衰减动力学 \tau_E \frac{dg_i^E}{dt} = -g_i^E, \quad \tau_I \frac{dg_i^I}{dt} = -g_i^I\\ % 电导变化量与权重的关系 \Delta g_{ij} = \bar{g} \, W_{ij}\\ % 权重可塑性说明(文本,非公式) \text{$W_{ij}$ can be plastic or fixed}

Spiking-timing-dependent learning rule:

Δw=η(pre×postρ0×pre)\Delta w=\eta(pre\times post-\rho_0\times pre)

image-20250824211721014

连续吸引子网络模型#

Amari-Hopfield Network#

Si(t+1)=sign(j=1NwijSj(t)θi)wij=1Nμ=1Pξiμξjμ(ij)wii=0S_i(t + 1) = \text{sign}\left( \sum_{j = 1}^{N} w_{ij} S_j(t) - \theta_i \right)\\ w_{ij} = \frac{1}{N} \sum_{\mu = 1}^{P} \xi_i^\mu \xi_j^\mu \quad (i \neq j) \\ w_{ii} = 0\\

image-20250825193437836

Energy function:  E=12i=1Nj=1NwijSiSj+i=1NθiSi\text{Energy function}:\;E = -\frac{1}{2} \sum_{i = 1}^{N} \sum_{j = 1}^{N} w_{ij} S_i S_j + \sum_{i = 1}^{N} \theta_i S_i

Modern Hopfield Network with Hidden Layer#

image-20250825201407747

{τfdvidt=μ=1Nhξiμfμvi+Ii(fμ=f({hμ}))τhdhμdt=i=1Nfξμigihμ(gi=g({vi}))\begin{cases} \tau_f \frac{d v_i}{d t} = \sum_{\mu=1}^{N_h} \xi_{i \mu} f_\mu - v_i + I_i & (f_\mu = f(\{h_\mu\})) \\ \tau_h \frac{d h_\mu}{d t} = \sum_{i=1}^{N_f} \xi_{\mu i} g_i - h_\mu & (g_i = g(\{v_i\})) \end{cases} Energy function:  E(t)=[i=1Nf(viIi)giLv]+[μ=1NhhμfμLh]μ,ifμξμigidE(t)dt=τfi,j=1Nfdvidt2Lvvivjdvjdtτhμ,ν=1Nhdhμdt2Lhhμhνdhνdt0\text{Energy function:}\; E(t) = \left[ \sum_{i=1}^{N_f} (v_i - I_i) g_i - L_v \right] + \left[ \sum_{\mu=1}^{N_h} h_\mu f_\mu - L_h \right] - \sum_{\mu, i} f_\mu \xi_{\mu i} g_i\\ \frac{d E(t)}{d t} = -\tau_f \sum_{i, j=1}^{N_f} \frac{d v_i}{d t} \frac{\partial^2 L_v}{\partial v_i \partial v_j} \frac{d v_j}{d t} - \tau_h \sum_{\mu, \nu=1}^{N_h} \frac{d h_\mu}{d t} \frac{\partial^2 L_h}{\partial h_\mu \partial h_\nu} \frac{d h_\nu}{d t} \leq 0 Activation functions:  fμ=Lhhμ,gi=Lvvi\text{Activation functions:}\;f_\mu = \frac{\partial L_h}{\partial h_\mu}, \quad g_i = \frac{\partial L_v}{\partial v_i}

Continuous Attractor neural network(CANN)#

τU(x,t)t=U(x,t)+ρJ(x,x)r(x,t)dx+Iextr(x,t)=U2(x,t)1+kρU2(x,t)dxJ(x,x)=J02πaexp[(xx)22a2]\tau \frac{\partial U(x, t)}{\partial t} = -U(x, t) + \rho \int J\left(x, x'\right) r\left(x', t\right) d x' + I^{ext}\\ r(x, t) = \frac{U^{2}(x, t)}{1 + k \rho \int U^{2}(x, t) d x}\\ J\left(x, x'\right) = \frac{J_{0}}{\sqrt{2 \pi} a} \exp \left[ -\frac{\left(x - x'\right)^{2}}{2 a^{2}} \right]\\

image-20250825204915856

bump 状态是指 CANN 达到稳定状态时,神经元群体的突触输入(Uˉ(xz))(\bar{U}(x|z))发放率(rˉ(xz))(\bar{r}(x|z))在空间上呈现 “局部高活动、全局低活动” 的高斯型分布,此时:

U(xz)=AρJ2exp[(xz)24a2]r(xz)=Aexp[(xz)24a2]\overline{U}(x | z) = \frac{A \rho J}{\sqrt{2}} \exp \left[ -\frac{(x - z)^{2}}{4 a^{2}} \right]\\ \overline{r}(x | z) = A exp \left[ -\frac{(x - z)^{2}}{4 a^{2}} \right]

Adaptive Continuous Attractor Neural Network#

CANN with SFA (Spike Frequency Adaptation)

dU(x,t)dt=U(x,t)+ρdxJ(xx)r(x,t)V(x,t)+Iext(x,t)τvdV(x,t)dt=V(x,t)+mU(x,t)orV(x,t)=mτvtettτvU(x,t)dt% 1. 带SFA的膜电位动态公式 \frac{d U(x, t)}{d t}=-U(x, t)+\rho \int d x' J\left(x-x'\right) r\left(x', t\right)-V(x, t)+I^{e x t}(x, t) \\ % 2. SFA效应项动态公式(微分形式+积分形式) \tau_{v} \frac{d V(x, t)}{d t}=-V(x, t)+m U(x, t)\quad or \quad V(x, t)=\frac{m}{\tau_{v}} \int_{-\infty}^{t} e^{-\frac{t-t'}{\tau_{v}}} U\left(x, t'\right) d t'

活性团内在移动速度公式

vintdz(t)dt=2aτvmτvτmτvτ% 3. v_{int } \equiv \frac{d z(t)}{d t}=\frac{2 a}{\tau_{v}} \sqrt{\frac{m \tau_{v}}{\tau}-\sqrt{\frac{m \tau_{v}}{\tau}}}

其中z(t)z(t)是活性团中心的位置

带 SFA 的 CANN 遇到外部移动输入,会表现出 3 种不同的 “跟踪模式”

image-20250826114047265

跟踪模式特点适用场景
行波(Travelling Wave)活性团自主移动,速度vintv_{int},不依赖外部输入外部输入强度α太小(或无外部输入),SFA 效应强
振荡跟踪(Oscillatory tracking)活性团跟随外部输入,但会围绕输入位置 “上下振荡”外部输入速度中等,SFA 效应与外部驱动平衡
平滑跟踪(Smooth tracking)活性团完全跟随外部输入移动,无延迟、无振荡外部输入速度vextv_{ext}较慢,SFA 效应较弱

image-20250826114727762

循环神经网络#

From SNN to rate-based model#

image-20250826190739289

SNN

τmdudt=(uurest)+g(Iv)u(tj)>Vthρv(t)=tvj<tδ(ttvj)\tau_{m}\frac{d u}{d t}=-\left(u-u_{\text{rest}}\right)+g\left(I_{v}\right)\\ u\left(t^{j}\right)>V_{t h} \quad \Rightarrow \quad \rho_{v}(t)=\sum_{t_{v}^{j}<t}\delta\left(t-t_{v}^{j}\right)

Rate-based

τmdrvdt=rv+g(iwiri)τsdIvdt=Iv+iwig(Ii)% 发放率直接驱动形式 \tau_{m}\frac{d r_{v}}{d t}=-r_{v}+g\left(\sum_{i} w_{i} r_{i}\right)\\ % 突触电流驱动形式 \tau_{s}\frac{d I_{v}}{d t}=-I_{v}+\sum_{i} w_{i} g\left(I_{i}\right)

τsτmτ_s≪τ_m 时可降维

标准速率模型形式

drdt=Fw(r,x)\frac{dr}{dt} = F_w(r, x)

训练方法#

训练方法方法含义主要局限性
固定点表示法 (Fixed Point)通过求解网络的稳态(固定点)并进行隐式微分来计算梯度,无需沿时间展开计算图。需迭代求解至稳态,计算开销可能很大,主要适用于稳态系统(如DEQ, Hopfield)
RTRL (实时循环学习)一种在线学习算法,在每一个时间步实时地计算参数梯度,无需等待完整序列。计算复杂度极高(O(n⁴)),难以用于大规模网络,实现非常复杂
BPTT (通过时间反向传播)将RNN沿时间轴展开为一个深度前馈网络,然后使用标准的反向传播算法计算梯度。内存消耗随序列长度线性增长,无法处理无限长序列,存在梯度消失/爆炸问题
BrainScale (SNN优化)一种针对脉冲神经网络(SNN)的硬件友好型在线训练方法,使用近似梯度进行学习。是SNN的特定方法,不适用于传统RNN,依赖于输入信号的特定统计特性

循环神经网络+库网络#

RNN training & Reservoir Computing

RNN#

τdrdt=r+f(Wrecr+Winu+brec+2τσrecζ) discrete description rt=(1α)rtdt+αf(Wrecrtdt+Winut+brec+2ασrecN(0,1))\tau \frac{d \boldsymbol{r}}{d t} = -\boldsymbol{r} + \boldsymbol{f}\left( W^{\mathrm{rec}} \boldsymbol{r} + W^{\mathrm{in}} \boldsymbol{u} + \boldsymbol{b}^{\mathrm{rec}} + \sqrt{2 \tau} \sigma_{\mathrm{rec}} \boldsymbol{\zeta} \right)\\ \downarrow \text{ discrete description }\\ \boldsymbol{r}_{t} = (1 - \alpha) \boldsymbol{r}_{t - d t} + \alpha f\left( W^{\mathrm{rec}} \boldsymbol{r}_{t - d t} + W^{\mathrm{in}} \boldsymbol{u}_{t} + \boldsymbol{b}^{\mathrm{rec}} + \sqrt{\frac{2}{\alpha}} \sigma_{\mathrm{rec}} N(0,1) \right)

image-20250827115226180

Echo state machine#

image-20250827115420190

h(t)=(1α)h(t1)+αtanh(Wrech(t1)+Winu(t)+b)y(t)=Wouth(t) \mathbf{h}(t) = (1 - \alpha) \mathbf{h}(t-1) + \alpha \cdot \tanh\left( \mathbf{W}^{\mathrm{rec}} \mathbf{h}(t-1) + \mathbf{W}^{\mathrm{in}} \mathbf{u}(t) + \mathbf{b} \right)\\ % 网络输出方程 (线性读出) \mathbf{y}(t) = \mathbf{W}^{\mathrm{out}} \mathbf{h}(t)

训练WoutW^{out}(岭回归):

目标函数:minWoutYtargetWoutH22+βWout22解析解:Wout=YtargetHT(HHT+βI)1% 输出权重的训练 (岭回归目标函数) \text{目标函数:}\min_{\mathbf{W}^{\mathrm{out}}} \left\| \mathbf{Y}^{\mathrm{target}} - \mathbf{W}^{\mathrm{out}} \mathbf{H} \right\|^2_2 + \beta \left\| \mathbf{W}^{\mathrm{out}} \right\|^2_2\\ % 输出权重的训练 (岭回归解析解) \text{解析解:}\mathbf{W}^{\mathrm{out}} = \mathbf{Y}^{\mathrm{target}} \mathbf{H}^T \left( \mathbf{H} \mathbf{H}^T + \beta \mathbf{I} \right)^{-1} σmax(Wrec)<1% 回声状态属性(ESP)的充分条件 \sigma_{\mathrm{max}} \left( \mathbf{W}^{\mathrm{rec}} \right) < 1\\ % 回声状态属性(ESP)的必要条件

回声状态属性(ESP)的充分条件是σmax(Wrec)<1\sigma_{\mathrm{max}} \left( \mathbf{W}^{\mathrm{rec}} \right) < 1

此外λmax(Wrec)>1ESP does not hold \left| \lambda_{\mathrm{max}} \left( \mathbf{W}^{\mathrm{rec}} \right) \right| > 1 \quad \Rightarrow \quad \text{ESP does not hold}

image-20250827120555035

脉冲神经网络训练#

Neural models#

image-20250905163643097

Training algorithms#

image-20250905163826790

Neural encoding methods#

image-20250905163912477

课表#

线上#

周次日期时间上课内容上课老师
第一周周日 (2025.8.17)上午 10:00 - 10:30开课仪式张天秋
上午 10:30 - 12:00神经计算建模简介吴思
下午 15:00 - 17:00Python & BrainPy 编程基础贺思超
晚上 20:00 - 21:00交流答疑教员
周一 (2025.8.18)上午 10:00 - 12:00Hodgkin - Huxley 神经元模型陈啸宇
下午 15:00 - 17:00Hodgkin - Huxley 神经元编程实现张天秋
晚上 20:00 - 21:00交流答疑教员
周二 (2025.8.19)上午 10:00 - 12:00简化神经元模型及其动力学分析吕沐洋
下午 15:00 - 17:00简化神经元模型编程实现王超名
晚上 20:00 - 21:00交流答疑教员
周三 (2025.8.20)上午 10:00 - 12:00突触模型及编程王超名
下午 15:00 - 17:00长 / 短时程可塑性模型及编程褚天昊
晚上 20:00 - 21:00交流答疑教员
周四 (2025.8.21)上午 10:00 - 12:00【前沿讲座】马雷老师
下午 15:00 - 17:00【前沿讲座】李松娗老师
周六 (2025.8.23)上午 10:00 - 12:00抉择网络模型及其编程实现刘潇
下午 15:00 - 17:00兴奋抑制平衡网络及其编程实现邹晓龙
晚上 20:00 - 21:00交流答疑教员
第二周周日 (2025.8.24)上午 10:00 - 12:00连续吸引子网络模型及其编程实现(上)褚天昊
下午 15:00 - 17:00连续吸引子网络模型及其编程实现(下)左峻枫
晚上 20:00 - 21:00交流答疑教员
周一 (2025.8.25)上午 10:00 - 12:00循环神经网络训练算法董行思
下午 15:00 - 17:00循环神经网络 + 库网络实战彭相源
晚上 20:00 - 21:00交流答疑教员
周二 (2025.8.26)上午 10:00 - 12:00【前沿讲座】弭元元老师
下午 15:00 - 17:00【前沿讲座】陈国璋老师
周三 (2025.8.27)上午 10:00 - 12:00脉冲神经网络训练及其实现邹晓龙
下午 15:00 - 17:00结课仪式、吴思教授答疑

线下#

日期时间活动内容地点
2025年8月28日 (星期四)12:00-20:00入营报道,领取资料袋珠海横琴希尔顿花园酒店 (科创中心2号楼)
17:30-19:00晚餐科创食堂 (科创中心6号/7号楼2层)
2025年8月29日 (星期五)08:30-09:00签到入场广东省智能科学与技术研究院
09:00-12:00专家讲座、面对面交流环节:李松挺(上海交通大学);茶歇(20min);余肇飞(北京大学)广东省智能科学与技术研究院
12:00-13:30午餐科创食堂 (科创中心6号/7号楼2层)
13:30-14:00签到入场广东省智能科学与技术研究院
14:00-17:30类脑计算实战课程广东省智能科学与技术研究院
17:30-19:00晚餐科创食堂 (科创中心6号/7号楼2层)
19:00-21:00学生与智能院老师交流广东省智能科学与技术研究院
2025年8月30日 (星期六)08:30-09:00签到入场广东省智能科学与技术研究院
09:00-12:00专家讲座、面对面交流环节:罗欢(北京大学);茶歇(20min);马征宇(鹏城实验室)广东省智能科学与技术研究院
12:00-13:30午餐科创食堂 (科创中心6号/7号楼2层)
13:30-14:00签到入场广东省智能科学与技术研究院
14:00-15:30参观广东省智能科学与技术研究院3层展厅广东省智能科学与技术研究院展厅
15:30-17:30参观横琴规划展览馆横琴规划展览馆
17:30-19:00晚餐科创食堂 (科创中心6号/7号楼2层)
19:00-21:00学生与智能院老师交流广东省智能科学与技术研究院
2025年8月31日 (星期天)09:00-10:30闭幕式:(1)视频回顾训练营期间精彩瞬间;(2)学员代表分享学习经验与感悟广东省智能科学与技术研究院23层2304报告厅
10:30-12:00学生与智能院老师交流广东省智能科学与技术研究院23层2304报告厅
12:00-13:30午餐科创食堂 (科创中心6号/7号楼2层)

结业证书#

证书

第四期神经计算建模及编程培训笔记
https://zhaoyi-tian.cn/blog/brainpy
Author 田照亿
Published at 2025年8月28日
Comment seems to stuck. Try to refresh?✨