玩轉wireshark系列第一篇-抓取arp包(原創)
本實驗使用的版本是wireshark2.4.7版,開啟軟體,選擇“捕獲”-“選項”。
選擇當前連的網,一般選擇流量“起起伏伏”的那個介面。
此時會有海量的資料包,為了便於分析,我們使用過濾器輸入“arp”以篩選出arp報文。
選取以下的傳送和接收的報文進行分析,arp一次請求由廣播的請求報文和單播的應答報文組成,所以這一組報文的源MAC地址和目的MAC地址是對調的。可以看一下Info的資訊很有意思,請求報文廣播說“誰有192.168.1.1的mac地址?告訴192.168.1.12吧!”,響應的報文對請求的地址單播說“192.168.1.1的mac地址是98:13:33:69:ca:cd”。
下面的Address ResolutionProtocol就是arp協議,這個報文是請求包,因為目標的MAC地址是全0。
具體的欄位解釋如下,源IP是192.168.1.12,目的IP是192.168.1.1,但是不知道具體的目的地的mac地址。
以下是響應包的內容
它在響應包裡面把mac地址補全,單播發給了源地址192.168.1.1。
ARP協議是工作在OSI模型裡面的第二層資料鏈路層的協議,它的過程相對比較簡單,但是確實一個很重要的協議,並且和網路層協議IP協議緊密配合一起工作。
相關推薦
玩轉wireshark系列第一篇-抓取arp包(原創)
本實驗使用的版本是wireshark2.4.7版,開啟軟體,選擇“捕獲”-“選項”。選擇當前連的網,一般選擇流量“起起伏伏”的那個介面。 此時會有海量的資料包,為了便於分析,我們使用過濾器輸入“arp”以篩選出arp報文。選取以下的傳送和接收的報文進行分析,arp一次請求由廣
玩轉wireshark系列第四篇-抓取ftp包【轉】
https://blog.csdn.net/u011416247/article/details/80872735 (首先宣告一下我也是一名小白,初學wireshark沒多久,我也很願意和大家一起討論wireshark的具體應用。) 本實驗使用的版本是wiresh
Java EE入門教程系列第一章Java EE的概述(二)——Java EE技術框架和開發工具
1.3Java EE的技術框架 從技術的角度劃分,完整的Java EE分成了4個部分:元件技術、服務技術、通訊技術和架構技術。 下面給出的是一個適合初學者的體系結構簡化圖,暫時接觸不到的部分統一用“支援技術”表示,我們暫時只專注於與應用級開發相關的技術即可。 1.元件技術 這是
Pyhon網路爬蟲學習筆記—抓取本地網頁(一)
如何用Python爬取本地網頁 一、寫出一個簡單的靜態網頁,下面是我隨便寫的一個 網頁原始碼如下 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UT
新榜微信文章抓取客戶端(APSpider)
原始碼下載請至 https://github.com/inmyjs/apspider 這是以前給新媒體運營同事寫的爬蟲軟體,用了一段時間就沒用了(唉、氣死我了)。 目前只抓取了新榜的日榜(周榜、月榜類似,換下地址即可)下,各行業的前50個公眾號下的7天熱門文章和最新發布
豆瓣小王子短評抓取——學習筆記(一)
# -*-coding:utf-8-*- import requests r = requests.get('https://book.douban.com/subject/1084336/comments/').text from bs4 import Beautifu
人民日報語料庫抓取python實現(二)--多執行緒
由於有大量的IO,多執行緒可以提高爬取的效率。出於不同佇列儲存不同url和對於爬蟲進行分工的初衷,這裡實現了兩個佇列shareMonthQueue和shareReportQueue。其中shareMonthQueue儲存所有月份初始url和包含的其他頁面(一個月份有很多pa
帶你玩轉軟體專案測試管理——專案研發管理模式(一)
帶你玩轉軟體專案測試管理——專案研發管理模式 眾所周知,軟體生命週期包括需求、設計、編碼、測試、執行維護、退役6個階段。而軟體研發過程包含了需求、設計、編碼、測試、交付、驗收、維護7個過程。同樣的,測試作為軟體研發過程中的一個環節,也有自己獨有的一套軟體測試過程,主要包
基於Java的網路爬蟲實現抓取網路小說(一)
package novel.spider.impl; import java.util.ArrayList; import java.util.List; import org.apache.http.client.methods.CloseableHttpResponse; import org.apa
node.js 小爬蟲抓取網頁資料(2)
node.js 小爬蟲抓取網頁資料 在原來的基礎上,採用了promise的模組,使其可以一次性多頁面的爬取網頁資料。 var http = require('http') var Promise = require('promise') var cheerio = re
金融篇--跌價也可以賺錢(原創)
原理 都是 沒有 而是 你在 可以賺錢 思維 直接 回來 人們都有一種慣性思維,認為買賣商品賺錢,通常都是低價買進,在溢價賣出,然後在賺取其中的差價。呵呵,其實,商品價格下跌,其實也孕育著賺錢的機會。舉個例子,現在假如米價是10元/斤,委實有點高哈,你收到消息,
玩轉JS系列之代碼加載篇
關系 mage 如何 安裝 lan 單單 ejs lec 重要 從前我們這樣寫js <script type="text/javascript"> function a(){ console.log(‘a init‘);}function b(){
python學習第一彈:爬蟲(抓取博客園新聞)
結果 csv hid window 相關數 解析html 可能 一個 _id 前言 說到python,對它有點耳聞的人,第一反應可能都是爬蟲~ 這兩天看了點python的皮毛知識,忍不住想寫一個簡單的爬蟲練練手,JUST DO IT 準備工作 要制作數據
剖析Elasticsearch集群系列第一篇 Elasticsearch的存儲模型和讀寫操作
推薦 arch 變更 git 排序。 _id 包含 doc 現在 剖析Elasticsearch集群系列涵蓋了當今最流行的分布式搜索引擎Elasticsearch的底層架構和原型實例。 本文是這個系列的第一篇,在本文中,我們將討論的Elasticsearch的底層存儲模型及
.Neter玩轉Linux系列之二:Linux下的文件目錄及文件目錄的權限
pac linux 在那 用戶 目錄結構 重要 bsp 樹狀 hub 一、Linux下的文件目錄 簡介:linux的文件系統是采用級層式的樹狀目錄結構,在此 結構中的最上層是根目錄“/”,然後在此目錄下再創建 其他的目錄。深刻理解linux文件目錄是
Python爬蟲 —— 抓取美女圖片(Scrapy篇)
parse color 爬蟲 select 尺度 dex -i www 模塊 雜談: 之前用requests模塊爬取了美女圖片,今天用scrapy框架實現了一遍。 (圖片尺度確實大了點,但老衲早已無戀紅塵,權當觀賞哈哈哈) Item: # -*- codi
[轉]使用tcpdump抓取HTTP包
tcpdump -XvvennSs 0 -i eth0 tcp[20:2]=0x4745 or tcp[20:2]=0x4854 0x4745 為"GET"前兩個字母"GE",0x4854 為"HTTP"前兩個字母"HT"。 輸出到檔案: sudo tcpdump
六天帶你玩轉mysql資料庫--第一天(下)
這是一系列視訊學習,寫部落格也是方便自己之後複習,有大家需要的資料可以給個參考。 接上一篇:https://blog.csdn.net/aaaaaab_/article/details/80015589 原資料表: 修改欄位: alter table 表名 mo
轉【研究生第一篇學術論文常犯問題總結】
摘要與結論幾乎重合 “他們論文中摘要部分與結論部分重複率超過70%。就原因而言,個人認為是他們對摘要和結論的“作用”沒有太多認識。” 對於摘要而言,首先要用一小句話引出為什麼做這個研究 然後,簡單地概述採用了那些研究方法 然後,直接了當地說出這篇論文的最重要結果,而不是所有的結果,最後
阿里雲端渲染系列-第一篇:公網方式下的雲端渲染
目 錄 1.文件介紹 12.基本知識點 12.1. 渲染環境 12.2. 常見製作軟體(略) 12.3. 常見渲染器(略) 23.雲產品介紹 23.1. VPC 23.2. VPN 23.3. 高速通道 23.4. ECS 23.5. BCS 23.6. OSS 23.7. NAS 23.8. 塊儲存 24