首頁最新資訊

全部 人工智能學(xué)科動(dòng)態(tài) 人工智能技術(shù)資訊 人工智能常見問題 技術(shù)問答

    • EM算法是什么?EM算法實(shí)現(xiàn)流程

      EM算法也稱期望最大化(Expectation-Maximum,簡稱EM)算法。 它是一個(gè)基礎(chǔ)算法,是很多機(jī)器學(xué)習(xí)領(lǐng)域算法的基礎(chǔ),比如隱式馬爾科夫算法(HMM)等等。 EM算法是一種迭代優(yōu)化策略,由于它的計(jì)算方法中每一次迭代都分兩步, 其中一個(gè)為期望步(E步), 另一個(gè)為極大步(M步), 所以算法被稱為EM算法(Expectation-Maximization Algorithm)。查看全文>>

      人工智能技術(shù)資訊2023-09-22 |黑馬程序員 |EM算法實(shí)現(xiàn)流程,EM算法
    • 人工智能是什么?和機(jī)器人有什么區(qū)別?

      ?人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,主要研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能理論方法技術(shù),以及應(yīng)用系統(tǒng)的一門新的技術(shù)學(xué)科。人工智能需要大數(shù)據(jù)來支撐,主要是識別類、感應(yīng)器方面,現(xiàn)今生活中的智慧家電、智慧工業(yè)、語言識別等都運(yùn)用了人工智能技術(shù)。而機(jī)器人是可編程機(jī)器,在人工智能的基礎(chǔ)上增加物理外殼,是人工智能研究的產(chǎn)物,是實(shí)體的。查看全文>>

      人工智能常見問題2023-09-22 |黑馬程序員 |人工智能和機(jī)器人的區(qū)別
    • 怎樣使用striplot()函數(shù)繪制類別散點(diǎn)圖?

      數(shù)據(jù)集中的數(shù)據(jù)類型有很多種,除了連續(xù)的特征變量之外,最常見的就是類別型的數(shù)據(jù)了,比如人的性別、學(xué)歷、愛好等,這些數(shù)據(jù)類型都不能用連續(xù)的變量來表示,而是用分類的數(shù)據(jù)來表示。 Seaborn針對分類數(shù)據(jù)提供了專門的可視化函數(shù),這些函數(shù)大致可以分為如下三種:查看全文>>

      人工智能技術(shù)資訊2023-08-29 |黑馬程序員 |類別散點(diǎn)圖,stripplot()函數(shù)語法格式
    • LR與線性回歸的區(qū)別與聯(lián)系?_人工智能基礎(chǔ)培訓(xùn)

      LR(Logistic Regression)和線性回歸(Linear Regression)是兩種常見的回歸算法,用于處理不同類型的問題。下面是它們的區(qū)別與聯(lián)系查看全文>>

      人工智能常見問題2023-08-18 |黑馬程序員 |LR與線性回歸的區(qū)別與聯(lián)系
    • 如何理解神經(jīng)網(wǎng)絡(luò)中權(quán)值共享

      在神經(jīng)網(wǎng)絡(luò)中,權(quán)值的共享是一種優(yōu)化技術(shù),通常用于減少模型參數(shù)數(shù)量以及提升模型的泛化能力。它在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中得到廣泛應(yīng)用,特別是在處理圖像和其他類似結(jié)構(gòu)的數(shù)據(jù)時(shí)。查看全文>>

      人工智能常見問題2023-08-16 |黑馬程序員 |如何理解神經(jīng)網(wǎng)絡(luò)中權(quán)值共享
    • 深度學(xué)習(xí)中模型不收斂,是否說明這個(gè)模型無效?

      深度學(xué)習(xí)中模型不收斂并不一定意味著這個(gè)模型無效。模型不收斂可能是由多種原因引起的,而且可以采取一些方法來解決這個(gè)問題。以下是一些可能的原因和對應(yīng)的解決方法。查看全文>>

      人工智能常見問題2023-08-16 |黑馬程序員 |模型不收斂是否說明模型無效
和我們在線交談!