1. 程式人生 > >視訊前背景分離論文之(1) Online Robust PCA via Stochastic Optimization

視訊前背景分離論文之(1) Online Robust PCA via Stochastic Optimization

1、Principal Component Pursuit(PCP)

1.1 PCP:

minX,E12ZXE2F+λ1X+λ2E1

1.2 Iterative optimization methods:

Accelerated Proximal Gradient(APG)
Augmented Lagrangian Multiplier(ALM)

Difficulty applied to Online: nuclear norm tightly couples the samples and thus the samples have to be processed simultaneously.

2、OR-PCA

An equivalent form of the nuclear norm:

X=infLRp×r,RRn×r{12L2F+12R2F:X=LRT}

where rank(X) is upper bounded by r.
LRp×r: denote the basis of the low-dimensional subspace.
RRn×r: the coefficients of the samples w.r.t. the basis.

minLRp×r,RRn×r12ZLRTE2F+λ12(L2F+
R2F)+λ2E1

Equivalent to minize empirical cost function:

fn(L)1ni=1n(zi,L)+λ12nL2F
where the loss function for each sample is defined as:
(zi,L)minr,e12ziLre22+λ12r22+λ2e1
Expected cost over all the samples:
f(L)Ez[(z,L)]=limnfn(L)

OR-PCA algorithm: Develop a stochastic optimization algorithm to processes one sample per time instance.

minimize the empirical cost function to updater, and e:

fn(L)1ni=1n(zi,L)+λ12nL2F
where (zi,L) is:
(zi,L)=minr,e12zi

相關推薦

視訊背景分離論文1 Online Robust PCA via Stochastic Optimization

1、Principal Component Pursuit(PCP) 1.1 PCP: minX,E12∥Z−X−E∥2F+λ1∥X∥∗+λ2∥E∥1 1.2 Iterative optimization methods: Accelerated

轉載:全局拉普拉斯平滑1Strucutre extraction from texture via relative total variation及稀疏矩陣求解

場景 solid b2c eas ont 進行 hidden tis watermark 全局拉普拉斯平滑之(1)Strucutre extraction from texture via relative total variation及稀疏矩陣求解 2018年01月3

自然場景文字處理論文整理1Spatial Transformer Networks

paper:Spatial Transformer Networks 在Theano框架中,STN演算法已經被封裝成API,可以直接呼叫。tensorflow實現見文章最後。 1、空間變換器的結構: 這是一個可微分的模組,它在單個前向傳遞期間將空間變換應用於要素圖,其中變換以特

大資料1Centos7上搭建全分散式Hadoop叢集

本文介紹搭建一個Namenode兩個DataNode的Hadoop全分散式叢集的全部步驟及方法。具體環境如下: 一、環境準備 3個Centos7虛擬機器或者3個在一個區域網內的實際Centos7機器,機器上已安裝JDK1.8,至於不會安裝Centos7或者JDK1.8的同

行為識別論文整理1

謹以此片部落格開啟我的行為識別之路——養成記錄的好習慣 參考:https://github.com/Ewenwan/MVision/tree/master/CNN/Action_Recognition 以及無數部落格大佬們。 文章目錄 1、任務

Distillation論文總結1Do Deep Nets Really Need to be Deep?

論文地址: NIPS2014; arxiv. 論文目錄 Do Deep Nets Really Need to be Deep? 引言 模仿學習訓練淺層網路 模型壓縮 用L2Loss迴歸來模仿學習 引入線性

Paper Reading 1AlexNet

Paper Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet classification with deep co

推薦系統論文筆記1:Hybrid Recommender Systems:Survey and Experiments

一、基本資訊 論文題目: 《Hybrid Recommender Systems:Survey and Experiments》 論文發表時間: 2002, 論文作者及單位:Robin  Burke(California State University) 我的評分:5顆星

KNN程式碼分析 - 1相親決策

KNN的全稱是k- Nearest Neighbors. 在資料中找到最接近的資料,然後根據剩下的k個數據做選擇。 怎麼測量A資料和B資料是否接近方面,我們用到了測量資料距離的公式,Euclidian:

論文筆記1--YOLOv2YOLO9000:Better,Faster,Stronger

論文連結:https://arxiv.org/abs/1612.08242 主要包括三個部分:Better,Faster,Stronger,其中前面兩部分基本上講的是YOLO v2,最後一部分講的是YOLO9000。 Better 這部分細節很多,要詳細瞭解的話還是需要

燕姐的 Linux 私房菜1—— Linux 簡介

1、作業系統與硬體 無論是 Linux、OS X、Windows 作業系統,他們都是由以下部分組成(分層結構): 最底層:硬體; 底層之上:將硬體的介面抽象成為系統呼叫(kernel); 再之上:庫; 在此之上為:應用程式。 程式的執行可以有兩種方式: (1)開機自動啟動執行; (2

一步步從後端渲染到前後端分離經驗分享1

概念普及 後端渲染 後端採用JSP,freemarker,jdea,babel等渲染框架對前端模板進行預編譯。 假設有這麼一組資料你想展示在介面上: name MrXu MrXu0 MrXu1 <

Linux 命令1 幫助命令help

help命令 : help【-dms】 【模式...】 顯示內嵌命令的相關資訊。 顯示內嵌命令的簡略資訊。如果指定了PATTERN模式,給出所有匹配的PATTERN的命令的詳

從零開始搭建大資料平臺系列1——環境準備

1、機器準備 (1)物理機配置 處理器:Intel® Core™ i7 處理器 記憶體:8.00GB 系統型別:64 位作業系統,基於 x64 的處理器 作業系統:Windows 10 專業版 (2)磁碟陣列 常用磁碟陣列型別:RAID 0,RAID 1,RAI

linux核心中的GPIO系統1:軟體框架

一、前言作為一個工作多年的系統工程師,免不了做兩件事情:培訓新員工和給新員工分配任務。對於那些剛剛從學校出來的學生,一般在開始的時候總是分配一些非常簡單的任務,例如GPIO driver、LED driver。往往CPU datasheet的關於GPIO或者IO ports的

Android音視訊學習——Camera2官方demo解析1

本篇內容主要解決螢幕旋轉和Surface旋轉之間的關係,使相機的預覽畫面與螢幕旋轉方向一致。 在官方demo的開始,定義了一個SparseIntArray,用來儲存螢幕旋轉的key和value: private static final Sparse

word2vec 中的數學原理背景知識詳解1

word2vec 是 Google 於 2013 年開源推出的一個用於獲取 word vector 的工具包,它簡單、高效,因此引起了很多人的關注。由於 word2vec 的作者 Tomas Mikolov 在兩篇相關的論文 [3,4] 中並沒有談及太多演算法細節

CFNet視訊目標跟蹤原始碼執行筆記1——only tracking

論文資訊 論文題目:End-to-end representation learning for Correlation Filter based tracking 論文出處:CVPR 2017 論文作者:Jack Valmadre,Luca Bertinet

排序系列1歸併排序及C語言實現

有很多演算法在結構上是遞迴的:為了解決一個給定的問題,演算法需要一次或多次遞迴的呼叫其本身來解決相關的問題。這些演算法通常採用分治策略:將原問題劃分成n個規模較小而結構與原問題相似的子問題;遞迴的解決這些子問題,然後將結果合併,就能得到原問題的解。 分治模式在遞迴時一般都有三

機器學習1——學習樸素貝葉斯-三種模型理論+python程式碼程式設計例項

本文來源於: 部落格:http://blog.csdn.net/u012162613/article/details/48323777 http://blog.csdn.net/zhihaoma/article/details/51052064  感謝作者的分享,非常感謝