婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁(yè) > 知識(shí)庫(kù) > 理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介

理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介

熱門標(biāo)簽:京華圖書(shū)館地圖標(biāo)注 蘇州人工外呼系統(tǒng)軟件 電話外呼系統(tǒng)招商代理 電話機(jī)器人貸款詐騙 廣東旅游地圖標(biāo)注 打印谷歌地圖標(biāo)注 看懂地圖標(biāo)注方法 淮安呼叫中心外呼系統(tǒng)如何 佛山通用400電話申請(qǐng)

機(jī)器學(xué)習(xí)

在吳恩達(dá)老師的課程中,有過(guò)對(duì)機(jī)器學(xué)習(xí)的定義:

ML:P T E>

P即performance,T即Task,E即Experience,機(jī)器學(xué)習(xí)是對(duì)一個(gè)Task,根據(jù)Experience,去提升Performance;

在機(jī)器學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)的地位越來(lái)越重要,實(shí)踐發(fā)現(xiàn),非線性的激活函數(shù)有助于神經(jīng)網(wǎng)絡(luò)擬合分布,效果明顯優(yōu)于線性分類器:

y=Wx+b

常用激活函數(shù)有ReLU,sigmoid,tanh;

sigmoid將值映射到(0,1):

tanh會(huì)將輸入映射到(-1,1)區(qū)間:

#激活函數(shù)tanh
%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
def tanh(x):
    return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
X=np.linspace(-5,5,100)
plt.figure(figsize=(8,6))
ax=plt.gca()#get current axis:獲取當(dāng)前坐標(biāo)系
#將該坐標(biāo)系的右邊緣和上邊緣設(shè)為透明
ax.spines['right'].set_color('none')
ax.spines['top'].set_color('none')
#設(shè)置bottom是x軸
ax.xaxis.set_ticks_position('bottom')
ax.spines['bottom'].set_position(('data',0))
#設(shè)置left為y軸
ax.yaxis.set_ticks_position('left')
ax.spines['left'].set_position(('data',0))
ax.plot(X,tanh(X),color='blue',linewidth=1.0,linestyle="-")
plt.show()

開(kāi)源框架

當(dāng)神經(jīng)網(wǎng)絡(luò)層數(shù)加深,可以加強(qiáng)捕捉分布的效果,可以簡(jiǎn)單認(rèn)為深度學(xué)習(xí)指深層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí);

當(dāng)前有兩大主流的深度學(xué)習(xí)框架:Pytorch和Tensorflow;

Pytorch支持動(dòng)態(tài)計(jì)算圖,使用起來(lái)更接近Python;

Tensorflow是靜態(tài)計(jì)算圖,使用起來(lái)就像一門新語(yǔ)言,據(jù)說(shuō)簡(jiǎn)單易用的keras已經(jīng)無(wú)人維護(hù),合并到tensorflow;

一個(gè)深度學(xué)習(xí)項(xiàng)目的運(yùn)行流程一般是:

v

深度學(xué)習(xí)計(jì)算重復(fù)且體量巨大,所以需要將模型部署到GPU上,GPU的設(shè)計(jì)很適合加速深度學(xué)習(xí)計(jì)算,為了便于在GPU上開(kāi)展深度學(xué)習(xí)實(shí)驗(yàn),人們開(kāi)發(fā)了CUDA架構(gòu),現(xiàn)在大部分DL模型都是基于CUDA加速的

關(guān)于CUDA

1.什么是CUDA?

CUDA(ComputeUnified Device Architecture),是顯卡廠商N(yùn)VIDIA推出的運(yùn)算平臺(tái)。 CUDA是一種由NVIDIA推出的通用并行計(jì)算架構(gòu),該架構(gòu)使GPU能夠解決復(fù)雜的計(jì)算問(wèn)題。

2.什么是CUDNN?

NVIDIA cuDNN是用于深度神經(jīng)網(wǎng)絡(luò)的GPU加速庫(kù)。它強(qiáng)調(diào)性能、易用性和低內(nèi)存開(kāi)銷。NVIDIA cuDNN可以集成到更高級(jí)別的機(jī)器學(xué)習(xí)框架中。

方向概覽

當(dāng)前計(jì)算機(jī)視覺(jué)的發(fā)展相對(duì)于自然語(yǔ)言處理更加成熟,NLP的訓(xùn)練比CV更耗費(fèi)資源,CV模型相對(duì)較小;

在CV方向:

1.圖像分類(ResNet,DenseNet)

  1. 目標(biāo)檢測(cè)ObjectDetection
  2. 風(fēng)格遷移StyleTransfer
  3. CycleGAN:比如圖像中馬到斑馬,也可以從斑馬返回馬
  4. ImageCaptioning:從圖像生成描述文本,一般用CNN獲得feature,再輸入RNN獲得文本

2.在NLP方向

  1. 情感分析:分類影評(píng)數(shù)據(jù)
  2. QuestionAnswering:一段問(wèn)題->給出答案
  3. Translation:可以用OpenNMT-py,OpenNMT-py是開(kāi)源的seq->seq模型
  4. ChatBot聊天機(jī)器人,基于QuestionAnswering,目前剛起步

另外還有強(qiáng)化學(xué)習(xí)Deep Reinforcement Learning,從簡(jiǎn)單的打磚塊游戲到著名的阿爾法Go;

以及預(yù)訓(xùn)練語(yǔ)言模型:給一段話,讓機(jī)器繼續(xù)說(shuō)下去,比如BERT,GPT2;

遷移學(xué)習(xí)

在CV中,NN的低層可以提取位置信息(邊,角等精細(xì)信息),高層提取抽象信息,所以低層的網(wǎng)絡(luò)可以反復(fù)使用,更改高層再訓(xùn)練以適用其他任務(wù)

到此這篇關(guān)于深度學(xué)習(xí)簡(jiǎn)介的文章就結(jié)束了,以后還會(huì)不斷更新深度學(xué)習(xí)的文章,更多相關(guān)深度學(xué)習(xí)文章請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 13個(gè)最常用的Python深度學(xué)習(xí)庫(kù)介紹
  • python glom模塊的使用簡(jiǎn)介
  • Python 的lru_cache裝飾器使用簡(jiǎn)介
  • 深度學(xué)習(xí)詳解之初試機(jī)器學(xué)習(xí)

標(biāo)簽:畢節(jié) 駐馬店 股票 衡水 江蘇 湖州 中山 呼和浩特

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介》,本文關(guān)鍵詞  理解,深度,學(xué),習(xí)之,學(xué)習(xí),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于理解深度學(xué)習(xí)之深度學(xué)習(xí)簡(jiǎn)介的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 朔州市| 壶关县| 香河县| 大竹县| 旬邑县| 凤台县| 台南市| 兴和县| 舒兰市| 绍兴县| 新巴尔虎左旗| 砀山县| 沁阳市| 长顺县| 拉萨市| 德保县| 晋中市| 博湖县| 阳泉市| 壶关县| 柯坪县| 博客| 师宗县| 新郑市| 永平县| 酒泉市| 敦煌市| 鹤庆县| 类乌齐县| 绥中县| 星座| 蓝田县| 开平市| 长垣县| 锡林浩特市| 肇庆市| 庐江县| 晋宁县| 金昌市| 岱山县| 岳阳县|