首頁最新資訊

全部 人工智能學科動態(tài) 人工智能技術資訊 人工智能常見問題 技術問答

    • 神經(jīng)網(wǎng)絡參數(shù)初始化方法有哪些,適用范圍是什么?

      神經(jīng)網(wǎng)絡參數(shù)初始化是在神經(jīng)網(wǎng)絡訓練開始前,對網(wǎng)絡的權重和偏置進行初始化的過程。不同的參數(shù)初始化方法可以影響神經(jīng)網(wǎng)絡的收斂速度和訓練性能。查看全文>>

      人工智能常見問題2023-08-01 |黑馬程序員 |神經(jīng)網(wǎng)絡,參數(shù)初始化,隨機初始化
    • Batch Normalization有什么作用?使用時需要注意什么?

      Batch Normalization(批歸一化)是深度學習中一種常用的技術,其主要目的是加速神經(jīng)網(wǎng)絡的訓練過程并提高模型的泛化性能。它在訓練過程中對每一層的輸入進行歸一化操作,從而減少梯度消失和梯度爆炸問題,以及增加網(wǎng)絡的穩(wěn)定性和收斂速度。查看全文>>

      人工智能常見問題2023-07-27 |黑馬程序員 |Batch Normalization,梯度爆炸,模型泛化
    • 深度學習的先決條件是什么?

      深度學習是一種機器學習方法,其目標是通過構建和訓練神經(jīng)網(wǎng)絡來實現(xiàn)自動化的特征學習和模式識別。要理解深度學習的先決條件,您需要對以下幾個關鍵概念和技術有一定的了解。查看全文>>

      人工智能常見問題2023-07-26 |黑馬程序員 |深度學習,先決條件,神經(jīng)網(wǎng)絡
    • ResNet解決了什么問題?結構有何特點?

      ResNet(Residual Network)是由Kaiming He等人提出的深度學習神經(jīng)網(wǎng)絡結構,它在2015年的ImageNet圖像識別競賽中取得了非常顯著的成績,引起了廣泛的關注。查看全文>>

      人工智能常見問題2023-07-21 |黑馬程序員 |ResNet,殘差塊,跳躍鏈接
    • Batch Normalization有什么作用?使用時需要注意什么?

      在人工智能領域中,Batch Normalization(批歸一化)是一種常用的技術,它的作用是加速神經(jīng)網(wǎng)絡的訓練過程,并提高模型的性能。以下是Batch Normalization的主要作用和需要注意的事項:查看全文>>

      人工智能常見問題2023-07-19 |黑馬程序員 |Batch Normalization,模型穩(wěn)定性,收斂速度
    • 網(wǎng)絡訓練時為何要加正則化,有哪些手段?

      在網(wǎng)絡訓練過程中,正則化是一種用來防止過擬合(overfitting)的技術。過擬合指的是模型在訓練集上表現(xiàn)很好,但在未見過的數(shù)據(jù)上表現(xiàn)較差的情況。正則化的目標是使模型在訓練集和測試集上都能有良好的性能。查看全文>>

      人工智能常見問題2023-07-14 |黑馬程序員 |網(wǎng)絡訓練,正則化,過擬合
和我們在線交談!