【更新】爬取姓名大全的名字-创新互联
接上文,可以不用一个网址一个网址的输入了,能抓取页面
创新互联专注于肥乡网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供肥乡营销型网站建设,肥乡网站制作、肥乡网页设计、肥乡网站官网定制、微信小程序服务,打造肥乡网络公司原创品牌,更为您提供肥乡网站排名全网营销落地服务。http://www.yw11.com/namelist.php
上列出的所有名字大全,不必再像上一个程序一样一个网址一个网址的输入了。嘿嘿。
#coding=utf-8 import urllib2 import re from bs4 import BeautifulSoup import sys reload(sys) sys.setdefaultencoding('utf-8') def getHtml(url): page=urllib2.urlopen(url) html=page.read() return html def getAllUrl(url): html=getHtml(url) soup=BeautifulSoup(html,'html.parser') ul=soup.find_all('ul',attrs={'class':'e3'})[0] a=ul.find_all('a') # for i in a: # urls=i['href'] # print urls # print "一共有"+str(len(a)) return a url='http://www.yw11.com/namelist.php' user_agent='Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_4) AppleWebKit/600.7.12 (KHTML, like Gecko) Version/8.0.7 Safari/600.7.12' headers={"User-Agent":user_agent} urls=getAllUrl(url) f=open('name.txt','a') for index in range(len(urls)): lianjie=urls[index]['href'] mingzi=urls[index].text print "正在抓取姓"+mingzi +"的名字......" request=urllib2.Request(lianjie,headers=headers) html=getHtml(request) soup=BeautifulSoup(html,'html.parser') divs=soup.find_all('div',attrs={"class":"listbox1_text"})[0] ul=divs.find_all('ul')[0] lis=ul.find_all('li') for index in range(len(lis)): name=lis[index].text.lstrip()#左对齐 f.write(name) f.write('\r\n') print "抓取了"+(str(index)+1)+"个"+mingzi+"名字" f.close() f=open('name.txt','r') lines=f.readlines() print "当前一共有"+str(len(lines)) f.close()
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
本文名称:【更新】爬取姓名大全的名字-创新互联
当前网址:http://scjbc.cn/article/dsdhsd.html