基于 PyTorch 实现目标检测、实例分割(语义分割)、全景分割、半监督对象检测多种检测任务 2024-05-20 python, 目标检测, 深度学习, pytorch, 人工智能 109人 已看 基于 PyTorch 实现目标检测、实例分割(语义分割)、全景分割、半监督对象检测多种检测任务
语音深度鉴伪识别项目实战:基于深度学习的语音深度鉴伪识别算法模型(一)音频数据编码与预处理 2024-05-27 算法, 音视频, 深度学习, 人工智能 120人 已看 深度学习技术在当今技术市场上面尚有余力和开发空间的,主流落地领域主要有:视觉,听觉,AIGC这三大板块。目前视觉板块的框架和主流技术在我上一篇基于Yolov7-LPRNet的动态车牌目标识别算法模型已有较为详细的解说。与AIGC相关联的,其实语音模块在近来市场上面活跃空间很大。从智能手机的语音助手到智能家居中的语音控制系统,再到银行和电信行业的语音身份验证,语音技术的应用日益广泛。
[深度学习]基于yolov8+bytetrack+pyqt5实现车辆进出流量统计+车辆实时测速实现 2024-05-23 yolo, 深度学习, 人工智能 68人 已看 以前使用过yolov5+deepsort实现过车辆进出流量统计+车辆实时测速,可以看我往期视频,这回改成yolov8+bytetrack实现,实时性更好,原理和原来一样。基于yolov8+pyqt5实现车辆进出流量统计+车辆实时测速_哔哩哔哩_bilibili。车速=单位像素车速x像素偏移/((当前帧索引-车辆进入帧索引)x(1/FPS))车速=单位像素车速x像素偏移/(车辆当前位置时间-车辆进入时间)时间为电脑本地时间或者在线北京时间。
Transformer系列专题(一)——self-attention自注意力机制如何计算 2024-05-23 算法, python, 机器学习, 深度学习, 人工智能 52人 已看 自注意力机制的原理相当于一个词在其上下文中的联系,即将这一个词赋予这一句话中将每个词乘以不同的权重,即是这一个词对上下文的关系程度。将本句话中的a对上下文的关系程度即为,将上下的词分别乘以不同的权重赋予到a词中,这就是a对上下问的关系程度。接下来详细介绍自注意力机制如何计算?
IEEE Transactions on Neural Networks and Learning Systems神经网络和学习系统TNNLS论文投稿须知 2024-05-23 学习, 机器学习, 深度学习, 人工智能, 神经网络 164人 已看 IEEE Transactions on Neural Networks and Learning Systems作为控制领域的TOP期刊,2024年5月影响因子为10.4,虽然有些下降,之前五年平均影响因子为11.2,但依然是该领域王牌期刊,接收关于神经网络和相关学习系统的理论、设计和应用的文章。TNNLS期刊隶属于。
基于transformers框架实践Bert系列6-完形填空 2024-05-21 深度学习, 人工智能, 自然语言处理, bert 131人 已看 本系列用于Bert模型实践实际场景,分别包括分类器、命名实体识别、选择题、文本摘要等等。(关于Bert的结构和详细这里就不做讲解,但了解Bert的基本结构是做实践的基础,因此看本系列之前,最好了解一下transformers和Bert等)本篇主要讲解应用场景。本系列代码和数据集都上传到GitHub上:https://github.com/forever1986/bert_task。
解决updateByExample时属性值异常的问题(部分属性值没有使用占位符?进行占位,而是变成了属性的名称) 2024-05-23 tensorflow, python, 机器学习, 深度学习, 人工智能 95人 已看 解决updateByExample时属性值异常的问题(部分属性值没有使用占位符?进行占位,而是变成了属性的名称)
VAE-变分自编码器(Variational Autoencoder,VAE) 2024-05-23 python, 机器学习, 深度学习, pytorch, 神经网络 119人 已看 变分自编码VAE基础
【pytorch】 Win11下cuda,cudnn以及pytorch环境安装 2024-05-19 python, 深度学习, pytorch, 人工智能, 硬件架构 180人 已看 Win11 cuda,cudnn,pytorch环境安装
用于图像和用于自然语言的神经网络区别 2024-05-23 机器学习, 深度学习, 人工智能, 神经网络 78人 已看 数据结构:图像数据是二维像素矩阵,具有空间结构;文本数据是一维序列,具有时间结构。网络架构:图像处理常用CNN,注重局部特征提取;自然语言处理常用RNN/LSTM/Transformer,注重序列和全局依赖。操作单元:图像处理中的卷积核在空间上操作;自然语言处理中的注意力机制在序列上操作。
深度学习(文章链接汇总) 2024-05-19 深度学习, 人工智能 34人 已看 神经网络与深度学习-简要入门动手学深度学习-pytorch版本(一):引言 & 预备知识动手学深度学习-pytorch版本(二):线性神经网络YOLOv8 学习与环境配置
BERT系列算法解读 2024-05-19 算法, 深度学习, 人工智能, 自然语言处理, bert 118人 已看 从而提高模型在SQuAD、MNLI和SST-2数据集上的性能。总的来看,这些优化措施显著增强了模型的表现。
Python - 深度学习系列35 重塑实体识别2 2024-05-22 python, 深度学习, 人工智能, 开发语言 68人 已看 上一篇介绍了如何进行训练,这篇讨论如何应用。详细review了之后,发现其实早先的服务还是略有欠缺的。
神经网络的工程基础(一)——利用PyTorch实现梯度下降法 2024-05-22 机器学习, 深度学习, pytorch, 人工智能, 神经网络 113人 已看 本文将讨论利用PyTorch实现梯度下降法的细节。这是神经网络模型的共同工程基础。