打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Python爬虫程序获取百度搜索结果的标题、描述、url。

使用BeautifulSoup编写了一段爬虫程序。熟悉Java的jsoup包的话,对于Python的BeautifulSoup库应该很容易上手。

#coding: utf-8import sysimport urllibimport urllib2from BeautifulSoup import BeautifulSoupquestion_word ="吃货 程序员"url ="http://www.baidu.com/s?wd="+ urllib.quote(question_word.decode(sys.stdin.encoding).encode('gbk'))htmlpage = urllib2.urlopen(url).read()soup = BeautifulSoup(htmlpage)print len(soup.findAll("table", {"class":"result"}))for result_table in soup.findAll("table", {"class":"result"}): a_click = result_table.find("a") print"-----标题----n"+ a_click.renderContents()#标题 print"----链接----n"+ str(a_click.get("href"))#链接 print"----描述----n"+ result_table.find("div", {"class":"c-abstract"}).renderContents()#描述print

http://www.thinksaas.cn/topics/0/91/91154.html
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
爬虫入门:如何用python爬取网易新闻?
凭借这5步,我30分钟学会了Python爬虫
Python私活300元,爬虫批量获取新浪博客文章存储到Word文件
使用Python构建网络爬虫:从网页中提取数据
新版必应BingChatAi生成爬虫,爬取一百张小姐姐图片教程
利用Python3爬虫唯一图库网上的漂亮妹子图ok
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服