scrapy框架爬取股票信息
⑴ 如何捕捉板块龙头股和抓取龙头股和板块轮动
抓龙头股需要良好的看盘能力,敏锐的嗅觉加果断的决策。新手的话可以用个好点的软件辅助,比如说牛股宝手机炒股,可以跟着牛人榜里的牛人去操作,这样要稳妥得多。
1:要准确判断龙头股,必须先掌握龙头板块,一般讲,龙头板块才是孕育龙头股的温床。
2:要准确地判断热点轮换,在一个多头控制的市场环境中,买盘是非常旺盛的,这个时候,应该密切注意消息面和政策面变化,这个时候的一点政策消息,市场传闻都会迅速形成干柴烈火趋势。
3:抓对了龙头板块,必须注意龙头板块里的中小盘个股动向,多注意流通盘在2亿以下,个股价格在5元以下的品种,前者是主力做盘最适合的股本结构,盘子大了,不利于筹码收集,后者低价是所有优势里的优势,越价低越具备不断翻番概率,很难想象,一只股价超过10元的品种翻番可能性有多少,涨到15元,市场就不敢跟了,而价格在3、4元的品种,翻两番,还是低价股。
4:注意研究最近的财务报表。注意流通股东的情况,一个是最好是没有基金、机构持股的情况,基金、机构持有的品种,往往股性死,要变牛也是慢牛,不会急速翻番。二个是游资从不与基金、机构为伍,而基金、机构虽然势力强,但是,他们玩起短线来,比散户都小气,有跟风盘就跑。三个是能不能发现“拖拉机”帐户,是不是有“超级散户”在场痕迹。如果有,那么,这个品种应该重点跟踪。
5:个股是否有独立性。如大盘上涨,其涨速快于大盘,大盘横盘它小涨,大盘大涨它涨停,大盘下跌,他横盘。
6:换手率、资金排行一般在未启动的时候,都占市场总排行的前50位,活跃期基本在前30位。
7:龙头启动前,基本会有一个跳空缺口产生,主力迫切需要甩开与市场平均成本的距离,把自身主动权扩大,树立强烈的赚钱效应,即使是思维敏捷的短线高手跟盘也不得不选择以第一个涨停追进。不妨对照纯多头市场:三种涨停应大胆追击的描述。
8:通常在涨停的时候会随大盘跳水的时候,打开涨停,而且会一次比一次的时间短,每一次打开涨停的时候,每次价格下跌的落差会越来越小,最终牢牢封死,卖压缩小。
9:除启动前震荡过程中有密集的成交和换手外,股票随着涨停的增加,成交量越来越小,说明庄家高度控盘,筹码高度集中,后期上涨潜力扩大。
⑵ 如何用爬虫抓取股市数据并生成分析报表
我用前嗅的forespider数据采集软件爬过股市信息的,比较简单,分析了一下历史股价,目前数据还不多没做太多分析。过几天再说
⑶ 100银子求助抓取同花顺网页股票数据
没有详细的 说明啊
⑷ 如何用python抓取股票数据
在 Python的QSTK中,是通过 s_datapath 变量,定义相应股票数据所在的文件夹。一般可以通过 QSDATA 这个环境变量来设置对应的数据文件夹。
具体的股票数据来源,例如沪深、港股等市场,你可以使用免费的WDZ程序输出相应日线、5分钟数据到 s_datapath 变量所指定的文件夹中。然后可使用 Python的QSTK中,qstkutil.DataAccess进行数据访问。
⑸ 如何使用python抓取炒股软件中资金数据
这个说来有点复杂,用fiddle监控软件跟服务器间的通讯,找到数据源地址,然后用excel或python抓这个源地址数据,可能还要加上反扒代码,构造时间戳等等,你网上找python网抓视频教程看看就知道了。
⑹ 做个虚拟炒股的网站,不知道实时股票数据从哪里搞到,怎么搞,从别网站抓取怎么抓取
你可以与上海赢富网联系申请接口,他们是代理行情数据的。
⑺ 怎么抓取股票数据
那么中国股市的数据有没有呢?答案是肯定的,不过要按照下面的参数做些调整,下面提供全球证券交易所的资料。
上证股票是股票代码后面加上.ss,深证股票是股票代码后面加上.sz
例如:000001 = 000001.sz
深市数据链接:http://table.finance.yahoo.com/table.csv?s=000001.sz
上市数据链接:http://table.finance.yahoo.com/table.csv?s=600000.ss
上证综指代码:000001.ss,深证成指代码:399001.SZ,沪深300代码:000300.ss
下面就是世界股票交易所的网址和缩写,要查找哪个股票交易所的数据,就按照上面的格式以此类推。
上海交易所=cn.finance.yahoo.com,.SS,Chinese,sl1d1t1c1ohgv
深圳交易所=cn.finance.yahoo.com,.SZ,Chinese,sl1d1t1c1ohgv
美国交易所=finance.yahoo.com,,United States,sl1d1t1c1ohgv
加拿大=ca.finance.yahoo.com,.TO,Toronto,sl1d1t1c1ohgv
新西兰=au.finance.yahoo.com,.NZ,sl1d1t1c1ohgv
新加坡=sg.finance.yahoo.com,.SI,Singapore,sl1d1t1c1ohgv
香港=hk.finance.yahoo.com,.HK,Hong Kong,sl1d1t1c1ohgv
台湾=tw.finance.yahoo.com,.TW,Taiwan,sl1d1t1c1ohgv
印度=in.finance.yahoo.com,.BO,Bombay,sl1d1t1c1ohgv
伦敦=uk.finance.yahoo.com,.L,London,sl1d1t1c1ohgv
澳洲=au.finance.yahoo.com,.AX,Sydney,sl1d1t1c1ohgv
巴西=br.finance.yahoo.com,.SA,Sao Paulo,sl1d1t1c1ohgv
瑞典=se.finance.yahoo.com,.ST,Stockholm,sl1d1t1c1ohgv
以上方法只能提供历史数据,实时数据不能抓取,此方法由ArthurXF提供
⑻ 如何通过软件抓取新浪财经里单只股票数据
如果你是准备抓历史数据,那还不如直接使用免费的wdz程序,沪深1990年至今的全部日线历史;2000年至今十几年的5分钟数据都可以直接输出,而且可转化为各种格式。根本不用去新浪中抓取。
⑼ 如何用爬虫抓取股市数据并生成分析报表
1. 关于数据采集
股票数据是一种标准化的结构数据,是可以通过API接口访问的(不过一般要通过渠道,开放的API有一定的局限性)。也可以通过爬虫软件进行采集,但是爬虫软件采集数据不能保证实时性,根据数据量和采集周期,可能要延迟几十秒到几分钟不等。我们总结了一套专业的爬虫技术解决方案(Ruby + Sidekiq)。能够很快实现这个采集,也可以后台可视化调度任务。
2. 关于展现
网络股票数据的展现,网页端直接通过HTML5技术就已经足够,如果对界面要求高一点,可以采用集成前端框架,如Bootstrap;如果针对移动端开发, 可以使用Ionic框架。
3. 关于触发事件
如果是采用Ruby on Rails的开发框架的话,倒是很方便了,有如sidekiq, whenever这样子的Gem直接实现任务管理和事件触发。
⑽ 如何用python 爬虫抓取金融数据
获取数据是数据分析中必不可少的一部分,而网络爬虫是是获取数据的一个重要渠道之一。鉴于此,我拾起了Python这把利器,开启了网络爬虫之路。
本篇使用的版本为python3.5,意在抓取证券之星上当天所有A股数据。程序主要分为三个部分:网页源码的获取、所需内容的提取、所得结果的整理。
一、网页源码的获取
很多人喜欢用python爬虫的原因之一就是它容易上手。只需以下几行代码既可抓取大部分网页的源码。
为了减少干扰,我先用正则表达式从整个页面源码中匹配出以上的主体部分,然后从主体部分中匹配出每只股票的信息。代码如下。
pattern=re.compile('<tbody[sS]*</tbody>')
body=re.findall(pattern,str(content)) #匹配<tbody和</tbody>之间的所有代码pattern=re.compile('>(.*?)<')
stock_page=re.findall(pattern,body[0]) #匹配>和<之间的所有信息
其中compile方法为编译匹配模式,findall方法用此匹配模式去匹配出所需信息,并以列表的方式返回。正则表达式的语法还挺多的,下面我只罗列所用到符号的含义。
语法 说明
. 匹配任意除换行符“ ”外的字符
* 匹配前一个字符0次或无限次
? 匹配前一个字符0次或一次
s 空白字符:[<空格> fv]
S 非空白字符:[^s]
[...] 字符集,对应的位置可以是字符集中任意字符
(...) 被括起来的表达式将作为分组,里面一般为我们所需提取的内容
正则表达式的语法挺多的,也许有大牛只要一句正则表达式就可提取我想提取的内容。在提取股票主体部分代码时发现有人用xpath表达式提取显得更简洁一些,看来页面解析也有很长的一段路要走。
三、所得结果的整理
通过非贪婪模式(.*?)匹配>和<之间的所有数据,会匹配出一些空白字符出来,所以我们采用如下代码把空白字符移除。
stock_last=stock_total[:] #stock_total:匹配出的股票数据for data in stock_total: #stock_last:整理后的股票数据
if data=='':
stock_last.remove('')
最后,我们可以打印几列数据看下效果,代码如下
print('代码',' ','简称',' ',' ','最新价',' ','涨跌幅',' ','涨跌额',' ','5分钟涨幅')for i in range(0,len(stock_last),13): #网页总共有13列数据
print(stock_last[i],' ',stock_last[i+1],' ',' ',stock_last[i+2],' ',' ',stock_last[i+3],' ',' ',stock_last[i+4],' ',' ',stock_last[i+5])