在進行模型訓(xùn)練時,我們需要構(gòu)造訓(xùn)練樣本和設(shè)計損失函數(shù),才能利用梯度下降對網(wǎng)絡(luò)進行訓(xùn)練。將一幅圖片輸入到y(tǒng)olo模型中,對應(yīng)的輸出是一個7x7x30張量,構(gòu)建標(biāo)簽label時對于原圖像中的每一個網(wǎng)格grid都需要構(gòu)建一個30維的向量。對照下圖我們來構(gòu)建目標(biāo)向量:查看全文>>
不斷地交換下去就可以將最大的那個數(shù)放到隊列的尾部。然后重頭再次交換,直到將數(shù)列排成有序數(shù)列。接下來我們以以數(shù)列[5, 9, 3, 1, 2, 8, 4, 7, 6]為例,演示冒泡排序的實現(xiàn)過程,最初的數(shù)列順序如下圖所示:查看全文>>
?復(fù)雜度分析是估算算法執(zhí)行效率的方法,公式O(f(n))表示算法的復(fù)雜度,此方法即為大O復(fù)雜度表示法O(f(n))中n表示數(shù)據(jù)規(guī)模,f(n)表示運行算法所需要執(zhí)行的指令數(shù)。下面的代碼非常簡單,求 1,2,3…n 的累加和,我們要做的是估算它的執(zhí)行效率。查看全文>>
30歲開始學(xué)人工智能行業(yè)嗎?晚不晚?如果你有一定的編輯基礎(chǔ)和經(jīng)驗是可以的,學(xué)習(xí)人工智能并不意味著拋掉過去所學(xué)的東西,而是在之前的計算機基礎(chǔ)上升級深耕于一個方向應(yīng)用于多個領(lǐng)域。不論轉(zhuǎn)行計算機的哪個方向都是不錯的選擇,而人工智能也確實是比較熱門的方向。查看全文>>
使用超平面進行分割數(shù)據(jù)的過程中,如果我們嚴格地讓所有實例都不在最大=大間隔之間,并且位于正確的一邊,這就是硬間隔分類。硬間隔分類有兩個問題,首先,它只在數(shù)據(jù)是線性可分離的時候才有效;其次,它對異常值非常敏感。查看全文>>
Seaborn基于 Matplotlib核心庫進行了更高級的API封裝,可以輕松地畫出更漂亮的圖形,而Seaborn的漂亮主要體現(xiàn)在配色更加舒服,以及圖形元素的樣式更加細膩。查看全文>>