--- tags: MrRobot --- # 先到处看看 首先看看 robots.txt 文件,这个文件用于防止爬虫对网站的某些部分进行索引,其中往往包含一些敏感内容: ```shell $ curl http://192.168.8.158/robots.txt User-agent: * fsocity.dic key-1-of-3.txt ``` Nice! 第一个 key 得来全不费功夫,打开看看: ```shell $ curl http://192.168.8.158/key-1-of-3.txt 073403c8a58a1f80d943455fb30724b9 ``` 第一个 key 落袋为安。 再看看 fsocity.dic 。 这个文件有点大,下载下来看看 ```shell $ curl http://192.168.8.158/fsocity.dic > fsocity.dic $ cat fsocity.dic true false wikia from the now Wikia extensions scss window http ---snip--- ``` 看起来像是某种单词列表……可以留到以后 brute forcing! 现在可以尝试用浏览器访问之前扫描 HTTP 服务获得的下两个位置 - index.html 和 index.php 。 尝试 .html 文件,浏览器在加载某些东西时卡住了……所以我不得不终止它。 尝试 .php 文件,发现是将我带回主页 - 但让我们继续查看源代码,看看我们能找到什么! ```html <!doctype html> <!-- \ //~~\ | | /\ |~~\|~~ |\ | /~~\~~|~~ /\ | /~~\ |\ ||~~ \ /| || | /__\ |__/|-- | \ || | | /__\ | | || \ ||-- | \__/ \_/ / \| \|__ | \| \__/ | / \|__\__/ | \||__ --> ``` 这真的很酷!但是——这对我们一点帮助都没有! 继续尝试扫描 HTTP 服务找到其他路径,包括 /readme.html、 /license.txt 等,都没有什么用处...