青光眼是全球范围内第二大致盲疾病,仅次于白内障。如果不及时治疗,青光眼会逐渐损害视网膜和视神经,从而造成不可逆转的视力损失,最终导致失明。在临床上,眼底检查是诊断青光眼的主要方法之一,bio-based oil proof paper眼科医生通过观察眼底图像中视杯和视盘的形态特征并计算相关临床参数来诊断青光眼。这项工作需要专业的医疗知识和经验,并且非常耗时和费力,因此不适合大规模筛查。为了提高青光眼的早期筛查效率,本文探索了基于深度学习的自动分割眼底图像中视杯和视盘的方法。相较于传统人工诊断的方法,深度学习方法利用深度神经网络对大量眼底图像进行训练,以自动识别视杯和视盘的位置和轮廓,从而帮助医生快速准确地诊断青光眼以及适应大规模筛查的需求。因此,本文基于Enasidenib深度学习对眼底图像中视杯和视盘的分割进行了深入的研究,主要研究内容如下:(1)提出了一种基于CNN和Transformer的混合网络(CNN-Transformer Hybrid Network,CTH-Net),用于视杯和视盘的联合分割。CTH-Net融合了卷积神经网络在捕捉局部特征方面的优点,以及Transformer在处理全局上下文和长距离依赖方面的优势。通过将两个模型架构进行高效混合,可以有效地同时利用局部信息和全局上下文信息,从而提高模型的精度和鲁棒性。此外,该混合模型还引入了空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块。ASPP模块可以有效地扩展感受野,提高模型对不同尺度的特征的提取能力,使得模型能够更好地处理眼底图像的复杂特征。(2)提出了一种基于CNN与Swin-TransfMG132ormer的混合网络(CNN-Swin Transformer Hybrid Network,CSTH-Net),用于视杯和视盘的联合分割。CSTH-Net使用了双编码结构,特征融合模块和跳跃连接技术。双编码结构通过引入Swin Transformer编码器分支来增强网络的全局上下文语义信息提取能力,弥补卷积神经网络编码器分支的不足。因此,双编码结构能够更好地处理眼底图像分割中的长距离依赖性问题和不同尺度信息捕捉问题。特征融合模块可以在不损失图像细节的同时将图像的全局信息与局部信息融合,从而提高分割的准确度和效率。同时,CSTH-Net还使用了跳跃连接技术,将编码器多尺度特征与上采样特征进行融合,可以更好地捕捉图像的不同尺度信息,进一步提高了分割的准确度和效率。