上面基本的搜集情報的工具大概都知道,這裡我想來理解一下
WSTG - 4.1 Information Gathering 相關的測試是測那些東西,就代表這一塊我們需要注意什麼。
4.1.1 Conduct Search Engine Discovery Reconnaissance for Information Leakage
這一章節主要是測試在現今網路世界所提到的『 搜尋引擎 』可否取得到我們的敏感資訊,例如 :
network diagrams and configurations
archived posts and emails by administrators or other key staff
logon procedures and username formats
usernames, passwords, and private keys
third-party, or cloud service configuration files
revealing error message content
development, test, User Acceptance Testing (UAT), and staging versions of sites.
其中最主要的搜尋方法就是我們這一篇文章中所提到的 google hacking。
然後測試的攻擊用 hacking ( dork ) 有一些會從我們之前提到的這個網址來的。
https://www.exploit-db.com/google-hacking-database
這一篇主要就是來知道 web server 的相關資訊,然後這些資訊我們都可以透過一個叫啥 banner grabbing
的方法來取得,但事實上就是用一下工具打 http 或啥的來取得服務的相關資訊 ( 從 header )。
然後像我們之前文章有提到的 nmap 也有提到,如下,像這裡就可以知道我們是用 nginx 來當 reverse proxy :
➜ server git:(feat/export-monthly-payroll-csv) ✗ nmap -sV hahow.in
Starting Nmap 7.94 ( https://nmap.org ) at 2023-09-25 20:33 CST
Stats: 0:00:02 elapsed; 0 hosts completed (1 up), 1 undergoing Connect Scan
Connect Scan Timing: About 1.85% done; ETC: 20:35 (0:01:46 remaining)
Stats: 0:00:03 elapsed; 0 hosts completed (1 up), 1 undergoing Connect Scan
Connect Scan Timing: About 4.20% done; ETC: 20:34 (0:01:08 remaining)
Nmap scan report for hahow.in (35.229.250.9)
Host is up (0.011s latency).
rDNS record for 35.229.250.9: 9.250.229.35.bc.googleusercontent.com
Not shown: 998 filtered tcp ports (no-response)
PORT STATE SERVICE VERSION
80/tcp open http nginx (reverse proxy)
443/tcp open ssl/http nginx (reverse proxy)
或是用這個網站給可以取得到不少 web 資訊,仔細看下面這個網址真的資訊好多。
https://sitereport.netcraft.com
4.1.3 Review Webserver Metafiles for Information Leakage
這個主要是在確保服務不會因為 metafile,而洩漏敏感信息或暴露不必要的功能。
然後它裡面提到的 metafiles 大部份是如下的東西 :
Robots : robots.txt,然後文中有提到可以用『 Google Webmaster Tools ( Google Search Console ) 』來檢查。
META Tag
Sitemaps
Security TXT : 它是一種標準文件,用於提供網站和服務的安全政策。
Humans TXT : 它是一個網站的倡議文件,你可以用這個連結來看 google 的這份文件。
Other .well-known Information Sources
4.1.4 Enumerate Applications on Webserver
這篇有點不是很能理解他要測試什麼,只知道有提到在尋找一個伺服器沒有沒漏洞時,會先去尋找這個伺服務所曝露服務,然後有提到什麼 nmap。
在 how to test 中有提到三點 :
Different Base URL
Non-standard Ports
Virtual Hosts
這篇我只知道,它一直再強調列舉伺服器上公開服務和應用程序的重要性,以確保它們的配置正確且及時更新,以防止已知漏洞的濫用和提高伺服器的安全性。
4.1.5 Review Webpage Content for Information Leakage
這個就是查看 web page ( html、js ) 來看看要有沒資訊洩漏的問題,然後主要會看 web page 的幾個地方。
Review webpage comments and metadata
Identifying JavaScript Code and Gathering JavaScript Files
Identifying Source Map Files
反正就是以上三個地方不要洩漏什麼敏感資訊就好。