只做网站哪个云服务器好wordpress 手机浏览器

张小明 2026/1/3 1:36:20
只做网站哪个云服务器好,wordpress 手机浏览器,重庆公司法人变更流程,python搭建网站1. Fasttext1.1 模型架构Fasttext模型架构和Word2vec的CBOW模型架构非常相似#xff0c;下面就是FastText模型的架构图#xff1a;从上图可以看出来#xff0c;Fasttext模型包括输入层、隐含层、输出层共三层。其中输入的是词向量#xff0c;输出的是label#xff0c;隐含…1. Fasttext1.1 模型架构Fasttext模型架构和Word2vec的CBOW模型架构非常相似下面就是FastText模型的架构图从上图可以看出来Fasttext模型包括输入层、隐含层、输出层共三层。其中输入的是词向量输出的是label隐含层是对多个词向量的叠加平均CBOW的输入是目标单词的上下文Fasttext的输入是多个单词及其n-gram特征这些单词用来表示单个文档CBOW的输入单词使用one-hot编码Fasttext的输入特征时使用embedding编码CBOW的输出是目标词汇Fasttext的输出是文档对应的类别1.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.embedding_ngram2 nn.Embedding(config.n_gram_vocab, config.embed) self.embedding_ngram3 nn.Embedding(config.n_gram_vocab, config.embed) self.dropout nn.Dropout(config.dropout) self.fc1 nn.Linear(config.embed * 3, config.hidden_size) # self.dropout2 nn.Dropout(config.dropout) self.fc2 nn.Linear(config.hidden_size, config.num_classes) def forward(self, x): out_word self.embedding(x[0]) out_bigram self.embedding_ngram2(x[2]) out_trigram self.embedding_ngram3(x[3]) out torch.cat((out_word, out_bigram, out_trigram), -1) out out.mean(dim1) out self.dropout(out) out self.fc1(out) out F.relu(out) out self.fc2(out) return out2. TextCNN2.1 模型架构与传统图像的CNN网络相比,TextCNN在网络结构上没有任何变化, 从下图可以看出TextCNN其实只有一层convolution一层max-pooling, 最后将输出外接softmax来n分类2.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.convs nn.ModuleList([nn.Conv2d(1, config.num_filters, (k, config.embed)) for k in config.filter_sizes]) self.dropout nn.Dropout(config.dropout) self.fc nn.Linear(config.num_filters * len(config.filter_sizes), config.num_classes) def conv_and_pool(self, x, conv): x F.relu(conv(x)).squeeze(3) x F.max_pool1d(x, x.size(2)).squeeze(2) return x def forward(self, x): out self.embedding(x[0]) out out.unsqueeze(1) out torch.cat([self.conv_and_pool(out, conv) for conv in self.convs], 1) out self.dropout(out) out self.fc(out) return3. TextRNN3.1 模型架构一般取前向/反向LSTM在最后一个时间步长上隐藏状态然后进行拼接在经过一个softmax层进行一个多分类或者取前向/反向LSTM在每一个时间步长上的隐藏状态对每一个时间步长上的两个隐藏状态进行拼接concat然后对所有时间步长上拼接后的隐藏状态取均值再经过一个softmax层进行一个多分类3.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.lstm nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectionalTrue, batch_firstTrue, dropoutconfig.dropout) self.fc nn.Linear(config.hidden_size * 2, config.num_classes) def forward(self, x): x, _ x out self.embedding(x) # [batch_size, seq_len, embeding][128, 32, 300] out, _ self.lstm(out) out self.fc(out[:, -1, :]) # 句子最后时刻的 hidden state return out4. TextRCNN4.1 模型架构与TextCNN比较类似都是把文本表示为一个嵌入矩阵再进行卷积操作。不同的是TextCNN中的文本嵌入矩阵每一行只是文本中一个词的向量表示而在RCNN中文本嵌入矩阵的每一行是当前词的词向量以及上下文嵌入表示的拼接4.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.lstm nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectionalTrue, batch_firstTrue, dropoutconfig.dropout) self.maxpool nn.MaxPool1d(config.pad_size) self.fc nn.Linear(config.hidden_size * 2 config.embed, config.num_classes) def forward(self, x): x, _ x embed self.embedding(x) # [batch_size, seq_len, embeding][64, 32, 64] out, _ self.lstm(embed) out torch.cat((embed, out), 2) out F.relu(out) out out.permute(0, 2, 1) out self.maxpool(out).squeeze() out self.fc(out) return5. BiLSTM_Attention5.1 模型架构相对于以前的文本分类中的BiLSTM模型BiLSTMAttention模型的主要区别是在BiLSTM层之后全连接softmax分类层之前接入了一个叫做Attention Layer的结构5.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.lstm nn.LSTM(config.embed, config.hidden_size, config.num_layers, bidirectionalTrue, batch_firstTrue, dropoutconfig.dropout) self.tanh1 nn.Tanh() self.w nn.Parameter(torch.zeros(config.hidden_size * 2)) self.tanh2 nn.Tanh() self.fc1 nn.Linear(config.hidden_size * 2, config.hidden_size2) self.fc nn.Linear(config.hidden_size2, config.num_classes) def forward(self, x): x, _ x emb self.embedding(x) # [batch_size, seq_len, embeding][128, 32, 300] H, _ self.lstm(emb) # [batch_size, seq_len, hidden_size * num_direction][128, 32, 256] M self.tanh1(H) # [128, 32, 256] alpha F.softmax(torch.matmul(M, self.w), dim1).unsqueeze(-1) # [128, 32, 1] out H * alpha # [128, 32, 256] out torch.sum(out, 1) # [128, 256] out F.relu(out) out self.fc1(out) out self.fc(out) # [128, 64] return out6. DPCNN6.1 模型架构第一层采用text region embedding其实就是对一个n-gram文本块进行卷积得到的feature maps作为该文本块的embedding。然后是convolution blocks的堆叠就是两个卷积层与shortcut的组合。convolution blocks中间采用max-pooling设置步长为2以进行负采样。最后一个pooling层将每个文档的数据整合成一个向量6.2 模型实现class Model(nn.Module): def __init__(self, config): super(Model, self).__init__() self.embedding nn.Embedding(config.n_vocab, config.embed, padding_idxconfig.n_vocab - 1) self.conv_region nn.Conv2d(1, config.num_filters, (3, config.embed), stride1) self.conv nn.Conv2d(config.num_filters, config.num_filters, (3, 1), stride1) self.max_pool nn.MaxPool2d(kernel_size(3, 1), stride2) self.padding1 nn.ZeroPad2d((0, 0, 1, 1)) # top bottom self.padding2 nn.ZeroPad2d((0, 0, 0, 1)) # bottom self.relu nn.ReLU() self.fc nn.Linear(config.num_filters, config.num_classes) def forward(self, x): x x[0] x self.embedding(x) x x.unsqueeze(1) # [batch_size, 250, seq_len, 1] x self.conv_region(x) # [batch_size, 250, seq_len-31, 1] x self.padding1(x) # [batch_size, 250, seq_len, 1] x self.relu(x) x self.conv(x) # [batch_size, 250, seq_len-31, 1] x self.padding1(x) # [batch_size, 250, seq_len, 1] x self.relu(x) x self.conv(x) # [batch_size, 250, seq_len-31, 1] while x.size()[2] 2: x self._block(x) x x.squeeze() # [batch_size, num_filters(250)] x self.fc(x) return x def _block(self, x): x self.padding2(x) px self.max_pool(x) x self.padding1(px) x F.relu(x) x self.conv(x) x self.padding1(x) x F.relu(x) x self.conv(x) x x px return xNLP新人欢迎大家一起交流互相学习共同成长~~AI大模型学习福利作为一名热心肠的互联网老兵我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。一、全套AGI大模型学习路线AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取二、640套AI大模型报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获三、AI大模型经典PDF籍随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获四、AI大模型商业化落地方案因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

淄博知名的做网站推广义乌设计工作室

哈希究竟代表什么?哈希表和哈希函数的核心原理 一、参考资料 【哈希究竟代表什么?哈希表和哈希函数的核心原理】 https://www.bilibili.com/video/BV1SZ4y1z7wT/?share_sourcecopy_web&vd_source855891859b2dc554eace9de3f28b4528 【什么是哈希】 h…

张小明 2026/1/2 22:48:33 网站建设

目前比较火的外贸产品京东关键词优化技巧

快速体验 打开 InsCode(快马)平台 https://www.inscode.net输入框内输入如下内容: 构建一个CMake自动化安装效率对比工具,功能包括:1) 记录手动配置CMake的时间消耗;2) 使用AI自动生成相同配置;3) 比较两者时间差异&a…

张小明 2026/1/2 22:48:31 网站建设

城市联盟网站怎么做重庆网站建设eyouc

5个必备Python工具让射频工程效率提升300% 【免费下载链接】scikit-rf RF and Microwave Engineering Scikit 项目地址: https://gitcode.com/gh_mirrors/sc/scikit-rf 还在为复杂的射频网络参数计算而烦恼吗?传统的手工分析方法不仅耗时耗力,还…

张小明 2026/1/2 22:48:35 网站建设

广州 行业 网站建设设计一个logo需要多少钱

想要永久珍藏那些令人难忘的TikTok直播时刻吗?现在有了这款强大的TikTok直播录制工具,你可以轻松实现跨平台直播保存,再也不用担心错过任何精彩内容。这款基于Python开发的开源录制工具支持Windows、Linux和Android三大平台,为创作…

张小明 2026/1/2 22:48:34 网站建设

普陀做网站价格给我做网站的人老是给我留点尾巴

2025年C视频学习终极指南:5个必看教程助你快速进阶 【免费下载链接】awesome-cpp awesome-cpp - 一个精选的 C 框架、库、资源和有趣事物的列表。 项目地址: https://gitcode.com/GitHub_Trending/aw/awesome-cpp 想要在2025年系统学习C编程语言?…

张小明 2026/1/2 22:48:37 网站建设

做牙工作网站有保障的注册代理

摘要 近年来,以中文为载体的短信钓鱼(Smishing)攻击呈现规模化、产业化趋势。Palo Alto Networks Unit 42近期披露的“Smishing Triad”行动揭示了一条高度分工、技术成熟的中文诱饵短信钓鱼产业链。本文基于该研究及其他公开技术通报&#…

张小明 2026/1/2 22:48:35 网站建设