Python - 深度学习系列34 重塑实体识别 2024-05-21 python, 深度学习, 人工智能, 开发语言 65人 已看 transformers 演变出了两个主要分支BERT(Encoder Only)和GPT(Decoder Only),中间分支的概念相对淡一些。本次的目的在与梳理和重建实体识别模型,来取得更好的效果。
深度学习设计模式之适配器模式 2024-05-21 深度学习, 适配器模式, 设计模式 132人 已看 本文主要学习适配器模式,见名知意,适配器让两个本来接口不兼容不能一起工作的类,合作无间。适配器模式主要是把一个类的接口变换成客户端所期待的另一种接口,从而使原本接口不匹配而无法一起工作的两个类能够在一起工作。类的适配器模式:将一个类转换成满足另一个新接口的类时,可以使用类的适配器器模式,创建一个新类,继承原有的类,实现新的接口即可。对象的适配器模式:将一个对象转换成满足另一个新接口的对象时,可以创建一个适配器类,持有原类的一个实例,在适配器类的方法中,调用实例的方法就行。
[数据集][目标检测]痤疮检测数据集VOC+YOLO格式915张1类别 2024-05-18 yolo, 机器学习, 深度学习, 目标检测, 人工智能 148人 已看 数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件)特别声明:本数据集不对训练的模型或者权重文件精度作任何保证,数据集只提供准确且合理标注。标注类别名称:["cuochuang"]cuochuang 框数 = 11807。图片数量(jpg文件个数):915。标注数量(xml文件个数):915。标注数量(txt文件个数):915。使用标注工具:labelImg。标注规则:对类别进行画矩形框。
Pytorch-03 数据集与数据加载器 2024-05-21 python, 机器学习, 深度学习, pytorch, 人工智能 107人 已看 在 PyTorch 中,数据集和数据加载器是用于有效加载和处理数据的重要组件,特别是在训练深度学习模型时。
python-pytorch 实现seq2seq+luong general concat attention笔记1.0.10 2024-05-19 python, 笔记, 深度学习, pytorch, 自然语言处理 187人 已看 python-pytorch seq2seq+luong general attention笔记1.0.2
Andrew Ng 吴恩达的深度学习课程作业 TensorFlow Tutorial (TF2原生) 2024-05-18 python, tensorflow, 机器学习, 深度学习, 人工智能 77人 已看 使用TensorFlow 2.6.0版本改写TensorFlow 1的代码,使用TF2的Eager Execution动态执行图。
卷积报错:AttributeError: ‘Conv2d‘ object has no attribute ‘total_ops‘ (已解) 2024-05-21 python, 机器学习, 深度学习, pytorch, 开发语言 632人 已看 卷积报错:AttributeError: 'Conv2d' object has no attribute 'total_ops', Only Tensors created explicitly by the user (graph leaves) support the deepcopy protocol at the moment
图像分类和文本分类(传统机器学习和深度学习) 2024-05-20 机器学习, 深度学习, 人工智能 75人 已看 决策树是一种用于分类和回归任务的机器学习算法。它通过一系列规则将数据点分类到不同的类别中,就像树枝分叉一样。每个规则都基于一个特征,例如“颜色”或“尺寸”,每个分支都代表一个可能的特征值,例如“红色”或“大”。代表整个数据集。代表一个特征,并根据特征值进行分支。代表一个类别或预测结果。
PyTorch中的形状变换术:reshape、view与permute的区别与联系 2024-05-17 python, 机器学习, 深度学习, pytorch, 人工智能 75人 已看 PyTorch中的形状变换术:reshape、view与permute的区别与联系
深度学习基于Tensorflow卷积神经网络VGG16的CT影像识别分类 2024-05-17 cnn, tensorflow, 深度学习, 人工智能, 分类 185人 已看 一、项目背景随着医疗技术的快速发展,CT(Computed Tomography)影像已成为医生诊断疾病的重要工具之一。然而,由于CT影像的数据量大、信息复杂,医生在阅片时可能面临较高的工作量和压力。因此,利用深度学习技术自动对CT影像进行识别分类,辅助医生进行诊断,具有重要的实际应用价值。本项目旨在基于TensorFlow深度学习框架,利用预训练的VGG16卷积神经网络模型,开发一个CT影像识别分类系统。二、项目目标。
Pytorch入门实战:10-Pytorch实现车牌识别 2024-05-17 python, 机器学习, 深度学习, pytorch, 人工智能 105人 已看 本周学习了如何使用Pytorch识别车牌。
【Pytorch】16.使用ImageFolder加载自定义MNIST数据集训练手写数字识别网络(包含数据集下载) 2024-05-21 python, 机器学习, 网络, 深度学习, pytorch, 人工智能 87人 已看 在前文【Pytorch】13.搭建完整的CIFAR10模型我们已经知道了基本搭建神经网络的框架了,但是其中的数据集使用的中的CIFAR10官方数据集进行训练的本文将用图片格式的数据集进行训练我们通过可以看到我们下载的数据集是这种格式的,所以我们的主要问题就是如何将自定义的数据集获取,并且转化为这种形式,剩下的步骤就和上文相同了。
深度学习基于Tensorflow卷积神经网络VGG16的CT影像识别分类 2024-05-17 cnn, tensorflow, 深度学习, 人工智能, 分类 153人 已看 一、项目背景随着医疗技术的快速发展,CT(Computed Tomography)影像已成为医生诊断疾病的重要工具之一。然而,由于CT影像的数据量大、信息复杂,医生在阅片时可能面临较高的工作量和压力。因此,利用深度学习技术自动对CT影像进行识别分类,辅助医生进行诊断,具有重要的实际应用价值。本项目旨在基于TensorFlow深度学习框架,利用预训练的VGG16卷积神经网络模型,开发一个CT影像识别分类系统。二、项目目标。
基于Pytorch深度学习神经网络手写字母识别系统源码(带界面和手写画板) 2024-05-18 python, 深度学习, 人工智能, pytorch, 神经网络 106人 已看 基于Pytorch深度学习神经网络手写字母识别系统源码(带界面和手写画板)
深入探索多头注意力机制:深度学习的关键创新 2024-05-17 深度学习, 人工智能 535人 已看 它首次在2017年的论文《Attention is All You Need》中被提出,此论文同时引入了Transformer模型,该模型和它的变体如BERT和GPT系列已经彻底改变了NLP的领域。通过并行地使用多个注意力“头”,多头注意力机制能够让模型在不同的子空间中学习到数据的不同表示,从而捕获信息的多个方面。最后,所有头的输出被拼接并再次线性变换,以生成最终的输出。多头注意力机制的核心思想是将注意力层分裂成多个头(head),每个头独立地进行学习和输出,然后将这些输出合并。
深度神经网络——什么是边缘人工智能和边缘计算 2024-05-19 dnn, 边缘计算, 深度学习, 人工智能, 神经网络 168人 已看 为了真正理解边缘AI,我们首先需要理解边缘计算,而理解边缘计算的最佳方式是 边缘计算就是将它与云计算进行对比。云计算是通过互联网提供计算服务。相比之下,边缘计算系统不连接到云端,而是在本地设备上运行。这些本地设备可以是专用的边缘计算服务器、本地设备、 或物联网 (IoT)。使用边缘计算有很多优点。例如,基于互联网/云的计算受到延迟和带宽的限制,而边缘计算则不受这些参数的限制。现在我们了解了边缘计算可以看看Edge AI。边缘人工智能结合了人工智能和边缘计算。人工智能算法在支持边缘计算的设备上运行。
图神经网络入门示例:使用PyTorch Geometric 进行节点分类 2024-05-17 python, 深度学习, pytorch, 人工智能, 分类 127人 已看 在本文中,我们将一个CSV文件转换为数据对象,然后使用PyTorch为节点分类任务构建基于图的神经网络。并且训练了两种不同类型的神经网络——多层感知器(MLP)和图卷积网络(GCN)。结果表明,GCN模型在该数据集上的表现明显优于MLP模型。本文介绍的主要流程是我们训练图神经网络的基本流程,尤其是前期的数据处理和加载,通过扩展本文的基本流程可以应对几乎所有图神经网络问题。作者:Claudia Ng。
从BERT到GPT-4:Transformer模型的进化之路与未来展望 2024-05-17 深度学习, 人工智能, gpt, 自然语言处理, bert 144人 已看 Transformer模型自2017年提出以来,已成为自然语言处理领域中最为重要和广泛使用的模型架构之一。其基于自注意力机制(Self-Attention)的设计,能够有效地捕捉文本中的长距离依赖关系,并在并行计算方面具有显著优势。Transformer模型的核心思想是利用自注意力机制来计算序列中各个位置之间的依赖关系。具体而言,对于输入序列中的每个位置,Transformer模型会计算其与其他所有位置的注意力权重,然后根据这些权重对位置进行加权求和,得到该位置的表示。Attention。
机器学习深度学习驱动的光子学设计与应用 2024-05-17 机器学习, 深度学习, 人工智能 74人 已看 案例分析与实践:基于VAE的自由形状超表面结构设计,Advanced Materials 31 (35), 1901111(2019), SCIENCE CHINA, 63(8), 1-8 (2020)案例分析与实践:基于多算法融合的多功能超表面设计,Advanced Materials 34 (16), 2110022, 2022。多算法融合在多功能超表面设计中的作用,如性能提升、设计优化等。基于VAE的设计流程,如数据准备、模型训练、结构生成等。