Scrapyd部署-API简单封装


__doc__ = ''' Scrapy Api 命令查询'''

__author__ = 'silva'

import os
import json
import requests
import argparse
from urllib.parse import urljoin

headers = {}

host = ''

current_dir = os.path.abspath(os.path.dirname(__file__))

api_path = {
    'cancel': 'cancel.json',
    'schedule': 'schedule.json',
    'listjobs': 'listjobs.json',
    'status': 'listprojects.json',
    'addversion': 'addversion.json',
    'delversion': 'delversion.json',
    'delproject': 'delproject.json',
    'listspiders': 'listspiders.json',
    'listprojects': 'listprojects.json',
    'listversions': 'listversions.json',
}

class Method(object):

    headers = headers

    def __init__(self, **kwargs):
        self.kwargs = kwargs

    def status(self):
        _path = api_path[self.kwargs['action']]
        return self._fetch(_path)

    def addversion(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        version = self.kwargs.get('version')
        egg_name = self.kwargs.get('egg') + '.egg'
        egg_path = os.path.join(current_dir, 'eggs', project, egg_name)
        with open(egg_path, 'rb') as fp:
            content = fp.read()
            return self._fetch(_path, method="POST", project=project, egg=content, version=version)

    def schedule(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        spiders = self.kwargs.get('spider')
        addjob_list = []
        for spider in spiders:
            rsp = self._fetch(_path, method="POST", project=project, spider=spider)
            addjob_list.append(json.loads(rsp.text))
        return json.dumps(addjob_list)

    def cancel(self):
        # 待测试
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        jobs = self.kwargs.get('job')
        deljob_list = []
        for job in jobs:
            rsp =  self._fetch(_path, method="POST", project=project, job=job)
            deljob_list.append(json.loads(rsp.text))
        return json.dumps(deljob_list)

    def listprojects(self):
        _path = api_path[self.kwargs['action']]
        return self._fetch(_path)

    def listversions(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, project=project)

    def listspiders(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        _version = self.kwargs.get('version')
        if _version:
            return self._fetch(_path, project=project, _version=_version)
        return self._fetch(_path, project=project)

    def listjobs(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, project=project)

    def delversion(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        version = self.kwargs.get('version')
        return self._fetch(_path, method="POST", project=project, version=version)

    def delproject(self):
        _path = api_path[self.kwargs['action']]
        project = self.kwargs.get('project')
        return self._fetch(_path, method="POST", project=project)

    def _fetch(self, path, method='GET', **kwargs):
        '''
        返回响应对象
        '''
        url = urljoin(host, path)
        if self.kwargs.get('headers'):
            self.headers = kwargs.get('headers')
        if method == 'GET':
            rsp = requests.get(url, params=kwargs, headers=self.headers)
        else:
            rsp = requests.post(url, data=kwargs, headers=self.headers)
        return rsp


class ScrapyApp(object):

    def __init__(self, **kwargs):
        self._init_args(**kwargs)
        # 运行指定方法
        opt = getattr(Method(**kwargs), self.action)()
        # 查询结果
        if opt:
            if isinstance(opt, str):
                print('RESULT:', json.dumps(json.loads(opt), indent=1))
            else:
                print('API:', opt.url)
                print('RESULT:', json.dumps(json.loads(opt.text), indent=1))
        else:
            print('API 查询出错!')

    def _init_args(self, **kwargs):
        self.action = kwargs.get('action')

def main():
    parser = argparse.ArgumentParser(description=__doc__, add_help=False, formatter_class=argparse.RawDescriptionHelpFormatter)
    parser.add_argument('-h', '--help', dest='help', help='获取帮助信息', action='store_true', default=False)
    # 通用参数
    parser.add_argument('-p', '--project', dest='project', help='项目名')
    parser.add_argument('-v', '--version', dest='version', help='版本名')
    parser.add_argument('-e', '--egg', dest='egg', help='项目打包文件名, 不加后缀')
    parser.add_argument('-j', '--job', dest='job', nargs='+', help='调度中的job id')
    parser.add_argument('-s', '--spider', dest='spider', nargs='+', help='指定spider名称 (可多选)')
    # 服务配置
    parser.add_argument('-server', '--server', dest='server', default='127.0.0.1', help='服务地址 默认: localhost')
    parser.add_argument('-port', '--port', dest='port', default=6800, help='指定端口 默认: 6800')
    # 执行动作分组
    action_option = parser.add_argument_group()
    action_option.add_argument('-status', '--status', dest='action', action='store_const', const='status', help='检查服务运行状态  >> 示例:-status')
    action_option.add_argument('-sd', '--schedule', dest='action', action='store_const', const='schedule', help='schedule 添加调度任务 >> 示例:-sd -p GovSpider -s jl.gov sh.gov -v 001')
    action_option.add_argument('-av', '--addversion', dest='action',action='store_const', const='addversion',  help='给项目添加版本号, 不存在则创建项目 >> 示例:-av -p Silva -v 001 -egg 001')
    action_option.add_argument('-c', '--cancel', dest='action',action='store_const', const='cancel', help='移除调度中的spider任务 示例:-c -p GovSpider -j 2edf71 04db14c')
    action_option.add_argument('-lp', '--listprojects', dest='action',action='store_const', const='listprojects', help='打印已经部署的项目列表 >> 示例:-lp ')
    action_option.add_argument('-lv', '--listversions', dest='action',action='store_const', const='listversions', help='打印指定项目的版本列表 >> 示例:-lv -p GovSpider')
    action_option.add_argument('-ls', '--listspiders', dest='action',action='store_const', const='listspiders', help='打印项目版本下的spiders, (_version可选, 默认为最新版本) >> 示例:-ls -p GovSpider -v 001')
    action_option.add_argument('-lj', '--listjobs', dest='action',action='store_const', const='listjobs', help='打印项目中spider运行详情信息 >> 示例:-lj -p GovSpider')
    action_option.add_argument('-dv', '--delversion', dest='action',action='store_const', const='delversion', help='删除已打包的版本 >> 示例:-dv -p GovSpider -v 001')
    action_option.add_argument('-dp', '--delproject', dest='action',action='store_const', const='delproject', help='删除已创建的项目 >> 示例:-dp -p GovSpider')

    # 详情参数分组
    args = parser.parse_args()
    if args.help:
        parser.print_help()
    elif args.action:
        global host
        host = 'http://{0}:{1}/'.format(args.server, args.port)
        print('查询服务地址:{}'.format(host))
        ScrapyApp(**args.__dict__)
    else:
        parser.print_usage()

if __name__ == '__main__':
    main()
    # 测试
    # host = 'http://127.0.0.1:6800/'
    # data = Method(project='GovPolicySpider', action='listjobs').listjobs()
    # print(json.dumps(json.loads(data.text), indent=1))

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345