双向长短期记忆神经网络BiLSTM 2024-06-25 lstm, rnn, 深度学习, 人工智能, 神经网络 143人 已看 网络,一个按照正向顺序处理输入序列,另一个按照反向顺序处理输入序列。遗忘门(forgetgate):决定上一个时间步的细胞状态对当前时间步的影响程度。输入门(input gate):决定当前时间步的输入信息对细胞状态的影响程度。隐藏状态(hiddenstate):当前时间步的输出,也是下一个时间步的输入。输出门(output gate):决定细胞状态对当前时间步的输出影响程度。输入门用来控制当前输入数据对记忆单元状态值的影响。LSTM 是一种特殊的 RNN,它通过引入。输出门用来控制记忆单元状态值的输出。
【机器学习300问】125、什么是双向循环神经网络(BRNN)?什么是深度循环神经网络(DRNN)? 2024-06-19 rnn, 机器学习, 深度学习, 人工智能, 神经网络 118人 已看 BRNN诞生背景、所解决问题、BRNN的网络结构、BRNN使用领域;DRNN是什么?DRNN的网络结构、DRNN的优缺点。
【机器学习300问】120、该怎么用RNN来构建语言模型? 2024-06-17 rnn, 语言模型, 机器学习, 深度学习, 人工智能 115人 已看 什么是语料库(Corpus)?说明是分词(Tokenization)?用RNN来构建语言模型的步骤。
【基于LSTM的多输出数据回归预测】附Matlab代码 2024-06-21 lstm, rnn, 深度学习, 人工智能, 神经网络 127人 已看 在当前的数据驱动时代,测未来的趋势、需求、资源分配等成为了许多行业关键决策的基石。长短期记忆网络(Long Short-Term Memory, LSTM)作为一种特殊的循环神经网络(RNN),因其在处理时间序列数据上的卓越性能而受到广泛关注。LSTM能够学习长期依赖信息,解决了传统RNN在长序列学习过程中的梯度消失问题。
齐普夫定律在循环神经网络中的语言模型的应用 2024-06-12 rnn, 语言模型, 深度学习, 人工智能, 神经网络 93人 已看 齐普夫定律(Zipf’s Law)是一种描述自然语言中单词频率分布的经验法则,它指出在一个文本或语料库中,单词的频率与其出现的排名成反比关系。具体来说,频率最高的单词出现的次数最多,排名第二的单词出现的次数大约是最高频单词的一半,排名第三的单词出现次数是最高频单词的三分之一,依此类推。这里,( \log n_i ) 是单词频率的对数,( \log i ) 是单词排名的对数,( \alpha ) 是斜率,( c ) 是截距。上面的代码统计了文本数据中的词频,并在对数坐标系中绘制了词频图。
基于CNN-RNN模型的验证码图片识别 2024-06-13 cnn, rnn, 深度学习, 人工智能, 神经网络 107人 已看 基于CNN-RNN模型的验证码识别方法能够有效处理复杂的验证码问题,结合了卷积神经网络的特征提取能力和循环神经网络的序列建模能力。通过使用CTC解码,可以在没有逐帧标注的情况下预测验证码中的字符序列。这种方法在实际应用中具有很高的准确率和适应性。
Attention as an RNN 2024-05-30 rnn, 机器学习, 深度学习, 人工智能, 神经网络 70人 已看 论文地址:https://arxiv.org/pdf/2405.13956是有附录的论文。
Attention as an RNN 2024-05-30 rnn, 机器学习, 深度学习, 人工智能, 神经网络 67人 已看 论文地址:https://arxiv.org/pdf/2405.13956是有附录的论文。
歌声合成算法流程和基于lstm的算法实例 2024-06-02 算法, lstm, rnn, 深度学习, 人工智能 73人 已看 歌声合成(Singing Voice Synthesis, SVS)是一项复杂的任务,旨在生成具有自然音质和情感的歌声。实现这种效果的算法通常涉及多个步骤,包括音高预测、音素时长预测、声学特征生成和波形生成等。基于LSTM(Long Short-Term Memory)网络的歌声合成算法是其中一种常见的方法。
LSTM 循环神经网络原理深度解读与网络结构精细剖析 2024-06-01 lstm, rnn, 深度学习, 人工智能, 神经网络 65人 已看 LSTM是一种巧妙应对RNN固有挑战的架构创新,它并未直接对RNN的权重矩阵进行特征值调整以解决梯度消失/爆炸问题,而是通过引入参数化的门控单元以及细胞状态这一特殊结构,构建了一条非权重依赖的线性信息传播路径,从而绕开了传统RNN中导致长期依赖学习困难的权重参数W。
LSTM长短时记忆网络:推导与实现(pytorch) 2024-05-29 lstm, rnn, 深度学习, pytorch, 人工智能 70人 已看 LSTM长短时记忆网络:推导与实现(pytorch实现)
【基于LSTM的多输出数据回归预测】Matlab代码 2024-05-30 lstm, rnn, 深度学习, 人工智能, 神经网络 58人 已看 在当前的数据驱动时代,预测未来的趋势、需求、资源分配等成为了许多行业关键决策的基石。长短期记忆网络(Long Short-Term Memory, LSTM)作为一种特殊的循环神经网络(RNN),因其在处理时间序列数据上的卓越性能而受到广泛关注。LSTM能够学习长期依赖信息,解决了传统RNN在长序列学习过程中的梯度消失问题。
BPTT算法详解:深入探究循环神经网络(RNN)中的梯度计算【原理理解】 2024-05-29 算法, rnn, 深度学习, 人工智能, 神经网络 54人 已看 在深度学习领域中,我们经常处理的是独立同分布(i.i.d)的数据,比如图像分类、文本生成等任务,其中每个样本之间相互独立。然而,在现实生活中,许多数据具有时序结构,例如语言模型中的单词序列、股票价格随时间的变化、视频中的帧等。对于这类具有时序关系的数据,传统的深度学习模型可能无法很好地捕捉到其内在的 时间相关性 。为了解决这一问题,循环神经网络(Recurrent Neural Network, RNN)被广泛应用于处理时序数据。首先,让我们来了解一下常见的循环神经网络结构。在 RNN 中,隐藏状态会随着时
循环神经网络RNNLM续写“The meaning of life“ 2024-05-29 rnn, 机器学习, 深度学习, 人工智能, 神经网络 57人 已看 使用泰戈尔飞鸟集,作为一本英文诗集,用于续写The meaning of life比较好。总而言之感觉续写出来还是不错的,当然还可以用2-gram模型来做。当然每次运行结果可能都是不同的,看大家选择吧。
深度学习:手撕 RNN(2)-RNN 的常见模型架构 2024-05-23 架构, rnn, 机器学习, 深度学习, 人工智能, 神经网络 52人 已看 双向 RNN 和 DeepRNN 的原理,以及一些应用更加灵活和广泛的架构
【MATLAB】基于EMD-PCA-LSTM的回归预测模型 2024-05-23 matlab, lstm, rnn, 深度学习, 人工智能 54人 已看 基于EMD-PCA-LSTM的回归预测模型是一种结合了经验模态分解(Empirical Mode Decomposition, EMD)、主成分分析(Principal Component Analysis, PCA)和长短期记忆网络(Long Short-Term Memory, LSTM)的复杂回归序列预测方法。下面分别介绍这三个组成部分的基本原理以及它们是如何结合在一起的。经验模态分解(EMD)
深度学习:手撕 RNN(2)-RNN 的常见模型架构 2024-05-23 架构, rnn, 机器学习, 深度学习, 人工智能, 神经网络 78人 已看 双向 RNN 和 DeepRNN 的原理,以及一些应用更加灵活和广泛的架构
传统RNN网络及其案例--人名分类 2024-05-22 lstm, rnn, 网络, 深度学习, 人工智能, 分类 62人 已看 先上图这图看起来莫名其妙,想拿着跟CNN对比着学第一眼看上去有点摸不着头脑,其实我们可以把每一个时刻的图展开来,如下其中,为了简化计算,我们默认每一个隐层参数相同,这样看来RNN的结构就比较简单了,相比较CNN来说,RNN引入了更多的时序信息。
LSTM长短时记忆网络:推导与实现(pytorch) 2024-05-29 lstm, rnn, 深度学习, pytorch, 人工智能 49人 已看 LSTM长短时记忆网络:推导与实现(pytorch)