独家原创 | Matlab实现CNN-Transformer多变量时间序列预测 2024-06-29 matlab, cnn, 人工智能, 神经网络, 开发语言 98人 已看 独家原创 | Matlab实现CNN-Transformer多变量时间序列预测
Meet AI4S 直播预告丨房价分析新思路:神经网络直击复杂地理环境中的空间异质性 2024-06-28 机器学习, 深度学习, 人工智能, 神经网络 103人 已看 为刻画地理要素间回归关系在不同空间位置体现出的空间非平稳性,地理加权回归 (GWR) 等空间回归模型根据地理学第一定律,将空间上更邻近的样本赋予更高的权重来建立局部的回归关系。近年来,我国各城市之间的房价差异化愈发凸显,甚至是在同一个城市的同一管辖区内,不同区域的房价也会因社区环境、学区、配套商业等因素的不同而千差万别,我们通过一个简单的神经网络模型,在保留回归结果的空间可解释性的同时,优化了空间邻近性的表达,从而获得了更高的建模精度。捕捉房价的空间特异性对于其变化趋势的预测至关重要。
双向长短期记忆神经网络BiLSTM 2024-06-25 lstm, rnn, 深度学习, 人工智能, 神经网络 94人 已看 网络,一个按照正向顺序处理输入序列,另一个按照反向顺序处理输入序列。遗忘门(forgetgate):决定上一个时间步的细胞状态对当前时间步的影响程度。输入门(input gate):决定当前时间步的输入信息对细胞状态的影响程度。隐藏状态(hiddenstate):当前时间步的输出,也是下一个时间步的输入。输出门(output gate):决定细胞状态对当前时间步的输出影响程度。输入门用来控制当前输入数据对记忆单元状态值的影响。LSTM 是一种特殊的 RNN,它通过引入。输出门用来控制记忆单元状态值的输出。
[机器学习]-3 万字话清从传统神经网络到深度学习 2024-06-27 机器学习, 深度学习, 人工智能, 神经网络 87人 已看 神经网络(Neural Networks, NNs)是机器学习的一种重要方法,灵感来源于生物神经系统,由大量互联的节点(称为神经元或单元)组成,通过调整这些节点间的连接权重来学习和表示复杂的非线性关系。传统神经网络包括感知机、Sigmoid神经元,以及更复杂的多层感知器。深度学习是基于深层次的神经网络,通过多层非线性变换从数据中学习特征和模式,通常由输入层、隐藏层和输出层组成,每一层由若干神经元构成,层与层之间通过权重连接;主流的深度学习有卷积神经网络、循环神经网络、生成对抗网络、Transformer等。
深度神经网络:解锁智能的密钥 2024-06-24 机器学习, dnn, 深度学习, 人工智能, 神经网络 85人 已看 在反向传播过程中,根据输出结果与真实标签之间的误差,计算各层神经元的梯度,并据此更新网络参数。它以其强大的学习能力、高度的适应性和广泛的应用场景,成为了我们解锁智能世界的一把密钥。与传统的神经网络相比,深度神经网络通过增加隐藏层的数量,能够学习更加复杂的数据表示和特征,从而实现更高的识别准确率和更强的泛化能力。而反向传播则是根据输出结果与真实标签之间的误差,通过梯度下降等优化算法调整网络参数,使得网络的输出更加接近真实标签。随着技术的不断发展和应用场景的不断拓展,深度神经网络将会在未来发挥更加重要的作用。
深度神经网络:解锁智能的密钥 2024-06-24 机器学习, dnn, 深度学习, 人工智能, 神经网络 79人 已看 在反向传播过程中,根据输出结果与真实标签之间的误差,计算各层神经元的梯度,并据此更新网络参数。它以其强大的学习能力、高度的适应性和广泛的应用场景,成为了我们解锁智能世界的一把密钥。与传统的神经网络相比,深度神经网络通过增加隐藏层的数量,能够学习更加复杂的数据表示和特征,从而实现更高的识别准确率和更强的泛化能力。而反向传播则是根据输出结果与真实标签之间的误差,通过梯度下降等优化算法调整网络参数,使得网络的输出更加接近真实标签。随着技术的不断发展和应用场景的不断拓展,深度神经网络将会在未来发挥更加重要的作用。
(20240521)昙花一现的神经网络从_NeRF_到_3DGS_Double7 2024-06-20 3d, 机器学习, 深度学习, 人工智能, 神经网络 179人 已看 这篇文章是我在组内学术分享报告内容,原应该辅以我的口头报告,但是会议忘记录屏了,就只能添加少量备注以供参考了。另外我也不是CV和图形学专业的,可能也有一些理解不够充分的地方。
【机器学习300问】125、什么是双向循环神经网络(BRNN)?什么是深度循环神经网络(DRNN)? 2024-06-19 rnn, 机器学习, 深度学习, 人工智能, 神经网络 78人 已看 BRNN诞生背景、所解决问题、BRNN的网络结构、BRNN使用领域;DRNN是什么?DRNN的网络结构、DRNN的优缺点。
数据生成 | Matlab实现基于SNN浅层神经网络的数据生成 2024-06-21 matlab, 深度学习, 人工智能, 神经网络, 开发语言 84人 已看 数据生成 | Matlab实现基于SNN浅层神经网络的数据生成
神经网络参数-----batch_size 2024-06-24 机器学习, 深度学习, 人工智能, 神经网络 85人 已看 在神经网络的训练过程中,一个非常直观的需要调整的超参数就是batch size。我们需要决定在一次训练中,要选取多少样本喂给神经网络,这个要选择的样本个数,就是batch size。batch size的。
如何解决深度神经网络中的梯度消失问题 2024-06-19 机器学习, dnn, 深度学习, 人工智能, 神经网络 85人 已看 在深度神经网络的训练过程中,梯度消失问题指的是由于连续乘积的激活函数和权重初始化不当,导致在反向传播时梯度值变得非常小,从而使得深层网络中的权重更新非常缓慢,甚至几乎不更新。
改进YOLO系列 | 谷歌团队 | CondConv:用于高效推理的条件参数化卷积 2024-06-20 python, cnn, 深度学习, pytorch, 神经网络 90人 已看 YOLO系列目标检测算法以其速度和精度著称,但其推理速度仍然存在提升空间。谷歌团队提出的CondConv(Conditional Parameterized Convolution)是一种条件参数化卷积,可以根据输入条件动态调整卷积核参数,从而提高推理效率。CondConv的核心是条件函数,它可以根据输入特征或其他信息生成条件。# 根据输入特征生成条件cond = feature.mean(dim=(1, 2, 3)) # 例如,使用特征图的全局平均值作为条件# 使用条件预测参数。
神经网络 #数据挖掘 #Python 2024-06-20 python, 深度学习, 人工智能, 神经网络, 数据挖掘 85人 已看 神经网络是一种受生物神经元系统启发的人工计算模型,用于模仿人脑的学习和决策过程。它由大量互相连接的节点(称为神经元)组成,这些节点处理和传递信息。神经网络通常包含输入层、隐藏层(可有多个)和输出层,每个层中的神经元之间通过权重相连。
PyTorch下的5种不同神经网络-ResNet 2024-06-21 python, 深度学习, pytorch, 人工智能, 神经网络 80人 已看 创建一个自定义的图像数据集类,用于加载和处理图像数据定义一个数据转换过程,包括图像大小调整、转换为张量以及标准化transforms.Resize((224, 224)), # ResNet的输入图像大小transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), # 标准化])修改ResNet模型的最后几层,以便它能够处理新的分类任务定义用于训练模型的损失函数和优化器。
【基于LSTM的多输出数据回归预测】附Matlab代码 2024-06-21 lstm, rnn, 深度学习, 人工智能, 神经网络 101人 已看 在当前的数据驱动时代,测未来的趋势、需求、资源分配等成为了许多行业关键决策的基石。长短期记忆网络(Long Short-Term Memory, LSTM)作为一种特殊的循环神经网络(RNN),因其在处理时间序列数据上的卓越性能而受到广泛关注。LSTM能够学习长期依赖信息,解决了传统RNN在长序列学习过程中的梯度消失问题。
AcWing 477:神经网络 ← 拓扑排序+链式前向星 2024-06-12 机器学习, 深度学习, 人工智能, 神经网络 85人 已看 ● 拓扑序列:https://blog.csdn.net/hnjzsyjyj/article/details/129811447● 链式前向星:https://blog.csdn.net/hnjzsyjyj/article/details/139369904val[idx]:存储编号为 idx 的边的值e[idx]:存储编号为 idx 的结点的值ne[idx]:存储编号为 idx 的结点指向的结点的编号h[a]:存储头结点 a 指向的结点的编号
深度神经网络——什么是NLP(自然语言处理)? 2024-06-17 dnn, 深度学习, 人工智能, 自然语言处理, 神经网络 77人 已看 NLP 是一个跨学科领域,它结合了语言学和计算机科学等领域已建立的技术。这些技术与人工智能结合使用来创建聊天机器人和数字助理,例如 Google Assistant 和亚马逊的 Alexa。让我们花一些时间来探讨自然语言处理背后的基本原理、NLP 中使用的一些技术以及 NLP 的一些常见用例。
高创新 | CEEMDAN-VMD-BiLSTM-Attention双重分解+双向长短期记忆神经网络+注意力机制多元时间序列预测 2024-06-13 lstm, 机器学习, 深度学习, 人工智能, 神经网络 83人 已看 高创新 | CEEMDAN-VMD-BiLSTM-Attention双重分解+双向长短期记忆神经网络+注意力机制多元时间序列预测
【复旦邱锡鹏教授《神经网络与深度学习公开课》笔记】线性分类模型损失函数对比 2024-06-12 笔记, 机器学习, 深度学习, 人工智能, 神经网络 81人 已看 本节均以二分类问题为例进行展开,统一定义类别标签y∈1−1,则分类正确时yfx;w0,且值越大越正确;错误时yfx;w0,且值越小越错误。不同损失函数间的损失随yfx;w。
TransformerConv 2024-06-18 机器学习, 深度学习, pytorch, 人工智能, 神经网络 95人 已看 维度不匹配只能是atten和hidden1的维度不匹配了,那attention和hidden1到底是什么?这里的hidden1对应着的是上一篇文章中forward的输出结果,也就是out,具体out的是什么?我感觉,我是不是学代码天生比别人慢一拍,就是其实很简单的函数也要花好久才能明白。之前在跑别人代码的时候,遇到了hidden这里的维度不匹配,就返回去找维度。然后return_attention_weight设置的是True。这的hidden1到底是什么?