1. 程式人生 > >bzoj1076(概率與期望dp入門)

bzoj1076(概率與期望dp入門)

題目大意:給定k次彈出寶物的機會,每次隨機彈出n種寶物的機會,如果吃過這種寶物的所有前提寶物就可以吃這種寶物,求最優策略的期望得分

看到資料範圍果斷狀壓DP- - 不看資料範圍害死人- -

至於吃還是不吃 這是個問題

對於這種最優策略的期望DP 我們一般都是從後往前推

列舉每次挑戰 列舉此時的狀態 列舉寶物是哪種

如果當前的寶物可以吃 就在吃與不吃的後繼狀態中選擇最大值加到當前狀態上

如果當前的寶物不能吃 只能選擇不吃的後繼狀態加到當前狀態上

最後輸出f[1][0]就是答案

#include<cstdio>
#include<cstring>
#include<cmath>
#include<algorithm>
#include<cstdlib>
using namespace std;
typedef double db;
int n,k;
double f[105][1<<17],sc[17];
int t[17];

int main()
{
	scanf("%d%d",&k,&n);
	int j;
	for (int i=1;i<=n;i++)
	{
		scanf("%lf",&sc[i]);
		while (scanf("%d",&j)&&j!=0) t[i]=t[i]|(1<<(j-1));
	}
	
	int S=1<<n;
	for (int i=k;i>=1;i--)
	{
		for (j=0;j<S;j++) 
		{
			for (int l=1;l<=n;l++) 
			{
				if ((j|t[l])==j) f[i][j]+=max(f[i+1][j],f[i+1][j|(1<<(l-1))]+sc[l])/n;
				else f[i][j]+=f[i+1][j]/n;
			}
		}
	}
	
	printf("%.6lf",f[1][0]);
	return 0;
}

總結:

對於這種最優策略的期望DP 我們一般都是從後往前推,倒推會好做很多,因為最後的答案就是F[1][0]。順推不好判斷當前狀態是否有效。(倒推是有效從有效推來,無效隨

便,因為答案就是一個有效狀態;而順推則可能從無效推到有效)

相關推薦

bzoj1076概率期望dp入門

題目大意:給定k次彈出寶物的機會,每次隨機彈出n種寶物的機會,如果吃過這種寶物的所有前提寶物就可以吃這種寶物,求最優策略的期望得分 看到資料範圍果斷狀壓DP- - 不看資料範圍害死人- - 至於吃還是不吃 這是個問題 對於這種最優策略的期望DP 我們一般都是從後往前推 列舉

codeforces 148D. Bag of mice 概率期望DP

The dragon and the princess are arguing about what to do on the New Year's Eve. The dragon suggests flying to the mountains to watch fairies dancing in t

期望—— 概率期望 DP 學習筆記

我們來跟著這篇部落格來學習一下好辣。 只會給出一些自己的理解。 方法一:直接定義期望狀態 全期望公式:E(Y)=∑nP(X=xi)E(Y|X=xi) 這道題的終點很明確,那就是走到 n 即停止。對於期望 DP,我們一般採用逆

poj 3744 Scout YYF I 矩陣乘法+概率期望DP

Scout YYF I Time Limit: 1000MS Memory Limit: 65536K Total Submissions: 8237 Accepted: 2428 Des

A Dangerous Maze概率期望求時間的期望

【題目來源】:https://cn.vjudge.net/problem/LightOJ-1027 【題意】 處在一個迷宮裡,面前有n扇門,每一扇都可能帶離你走出迷宮,若能帶離,那麼會花費一個時間值

概率期望DP習題總結

tin pos thead 生成 相減 new 單選 str 狀壓 部分資料從[GuessYCB][1]搬運過來 施工中~ 以下並非嚴格分類,部分題目需要幾種方法混用 題型 題目

[學習筆記]概率期望dp做題總結

之前做的一些就不記錄了,只記錄現在開始做的一些題。 T0. 入門題 給一個有向無環圖,每次等概率走某一條邊,求從1走到n的邊權和的期望。 做法1,直接設dp[x]表示答案,轉移顯然。 做法2,考慮從定義入手分析出一種做法。期望的定義是E=sigma Pi*Wi,就是Wi出現

[bzoj3470]Freda’s Walk【概率期望dp

【題目連結】   https://www.lydsy.com/JudgeOnline/problem.php?id=3470 【題解】   正著做一遍求出從一號點到每個點的概率g[i]g[i]。   倒著做一遍求出每個點開始向後走期望走多遠f[i]f[i

概率期望DP小結。

  好久沒更新部落格,來水一蛤,近三天做了二十道概率題,也算是摸到了一點門道。 其次就是關於概率DP狀態的設計,概率DP的題往往設計狀態比較直觀,直接按照題意來就可以(也有可能是我做的題太水了)。關於狀態的轉移,其最重要的核心就是嚴格按照全概率公式和全期望公式來遞推,要

淺談 概率期望 DP

概率與期望DP,一直都不會啊,感覺好難完全沒法思考… 期望題一般是逆推,當然也有一些是順推,然而現在我只做過一些水得很的期望題,好菜啊… UVa 11021 麻球繁衍 藍書p140 題解: 現在有k只麻球,每隻麻球都只能活一天,但是可

BZOJ1076獎勵關狀壓期望dp

fsg bzoj1076 get ctx oda x86 store vbo shu jzp訊廄62跋hx6http://t.docin.com/sina_6341946983 V順撞濁z衫X詵徽2撈4http://jz.docin.com/dtfv76012 a0

【題解】 bzoj1076: [SCOI2008]獎勵關 裝壓+期望dp

狀態 span 方程 con can i+1 std tin log 題面戳我 Solution 並不會做,看了下題解大概了解了。期望這個東西好難搞啊qwq 我們定義\(dp[i][j]\)表示第\(i\)步,拿到寶物前的狀態為\(j\)。 正著來會有很多不合法的情況,剔

HDU 6327 2018HDU多校賽 第三場 Random Sequence概率期望dp+數論

Problem I. Random Sequence Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 524288/524288 K (Java/Others) Total Submissio

loj6171/bzoj4899 記憶的輪廊期望dp+優化

get 答案 題目 bre ron 決策單調 重新 預處理 http 題目: https://loj.ac/problem/6171 分析: 設dp[i][j]表示從第i個點出發(正確節點),還可以有j個存檔點(在i點使用一個存檔機會),走到終點n的期望步數 那麽

BZOJ 1426--收集郵票(概率期望&DP)

不同 include online 沒有 收集 pass main 數字 bzoj 1426: 收集郵票 Time Limit: 1 Sec Memory Limit: 162 MBSubmit: 504 Solved: 417[Submit][Status][D

【BZOJ3925】[ZJOI2015] 地震後的幻想鄉狀壓期望DP

點此看題面 大致題意: 有\(n\)個點和\(m\)條邊,每條邊的權值是一個\(0\sim1\)的隨機實數,要你用\(n-1\)條邊將圖聯通,問這\(n-1\)條邊中邊權最大值的期望最小值。 提示 這題應該是一道比較難的\(DP\)題吧。 首先,我們需要注意到提示中的一句話: \(Hint

poj-1463 Strategic game樹狀DP入門

https://vjudge.net/problem/POJ-1463 題意:一棵樹,放哨兵站崗,如果有一個點放置了兵,那麼與其相連的所有點都能被監視,求樹的所有點都被監視且放置哨兵數目最少。 思路:dp[maxn][2] dp[i][0]表示不選取該點,dp[i][1]表示選取該點。

poj2342---Anniversary party樹狀DP入門

https://vjudge.net/problem/POJ-2342 題意:在一個公司中,每個職員有一個快樂值ai,現在要開一個party,邀請了一個員工就不可能邀請其直屬上司,同理邀請了一個人就不可以邀請其的直屬員工,問如何使得這個快樂值達到最大。 思路:dp[maxn][2]; d

【51nod 1021】石子歸併區間dp入門

1021 石子歸併 基準時間限制:1 秒 空間限制:131072 KB 分值: 20 難度:3級演算法題 收藏 關注 N堆石子擺成一條線。現要將石子有次序地合併成一堆。規定每次只能選相鄰的2堆石子合併成新的一堆,並將新的一堆石子數記為該次合併的代價。計算將N堆石子合併成一堆的最小代價。

DP】【概率期望】2018國慶三校聯考D3T2

題意: 分析: #include<cstdio> #include<cstring> #include<algorithm> #include<cma