string操作
字符串操作在实际解决问题时经常会遇到。
个人认为的常用:
str[beg:end].find('/'):用该方法进行查找的时候,其返回的索引值是从beg开始计算的,即实际索引值为beg+返回值
str.capitalize():将字符串转化为首字母大写其余字母小写的格式并返回
str.count(sub[, start[, end]])返回在[start, end]中计算sub字符串出现次数
str.center(width[, fillchar])返回一个长度为width,中心为str,以fillchar填充的字符串
str.endswith(suffix[, start[, end]])检查[start, end]中的字符串是否是以suffix结尾,返回布尔值
str.format(*args, **kwargs)格式化输出,譬如"The sum of 1 + 2 is {0}".format(1+2)
str.islower()判断字符串中是否含有小写字母,返回布尔值
str.replace(old, new[, count])将str中的old字符串以new代替,替换次数为count,默认为最大次数
str.join(iterable)将iter中的元素以str为连接符连接并返回该字符串
str.split(sep=None, maxsplit=-1)以sep为分隔符对str进行分割,maxsplit为分割次数,默认为最大
namedtuple
看看军哥写的namedtuple使用
官方文档namedtuple
namedtuple的最主要应用是使tuple具有可读性,可以对索引进行命名并通过该名称访问对应的值。
>>> Point = namedtuple('Point', ['x', 'y']) # 还可以用'a b c d '这样的带空格字符串对索引进行命名
# Point = namedtuple('Point', 'x y')
>>> p = Point(11, y=22) # 实例化,赋予value
>>> p[0] + p[1] # tuple的调用方式是可行的
33
>>> x, y = p # 支持类似tuple的自动解包
>>> x, y
(11, 22)
>>> p.x + p.y # 以key获得value
33
>>> p # namedtuple的__repr__方式
Point(x=11, y=22)
想要进行表格数据的转换的话非常方便。
namedtuple的几个常用方法 以上文的p为例
p._make(iterable): 将namedtuple中的key和value用一个iterable对象替换
p._asdict():将namedtuple转换为一个ordereddict [('x', 11), ('y', 22)]
p._replace(**kwargs):将name中某一个key的value改变
p._fields():返回name中所有的field name
正则表达式
这次的话可以使用正则表达式对url进行一次匹配,然后从匹配对象中找到需要的scheme等
这一串是军哥用到的匹配表达式,来慢慢看下吧
待匹配字符串 <scheme>://<netloc>/<path>?<query_params>#<fragment>
^(http[s]?):\/\/([^\/\s]+)([\/\w\-\.]+[^#?\s]*)?(\?([^#]*))?(#(.*))?$
^ (http[s]?) :\/\/ ([^\/\s]+) ([\/\w\-\.]+[^#?\s]*)? (\?([^#]*))? (#(.*))?$ #我用空格分开了下,比较好看清楚
^:字符串第一个字符开始匹配,没有匹配字符则匹配失败
(...):分组,从左到右为每个分组分配索引1、2、3、4...,便于使用group()方法获取不同匹配对象;需要注意的是每一个(都会使索引序数+1
[...]
:字符集,匹配该字符集内任意字符?:匹配前一个字符0次或1次
\
:转义字符,当需要匹配正则表达式中的诸如?.等特殊字符时使用\s:匹配空白字符
+:匹配前一个字符1次或无限次
\w:单词字符,[a-z,A-Z,0-9]
*:匹配前一个字符0或无数次
$:匹配字符串末尾
因此整体来看,军哥使用的正则表达式匹配的思路是:
^(http[s]?):在开头匹配http或者https,group(1)得到scheme;
://:匹配“://”;
([^/\s]+):匹配非“\”字符和非空白字符构成的字符集一次或无数次,group(2)得到netloc;
([/\w-.]+[^#?\s]*)?:匹配“\”“单词字符”“-”“.”构成的字符集一次或无数次,然后匹配非“#”非“?”和非“空白字符”构成的字符集0次或1次,对该匹配模式匹配0次或1次得到group(3),即path;
(?([^#]*))?:对”?“和一个或无数个非”#“字符构成的匹配模式匹配0次或1次,group(4)匹配最外层括号,group(5)匹配内层小括号,即query_params
(#(.*))?$:在末尾匹配”#“和一个或无数个”.“构成的匹配模式0次或1次,其中一个或无数个“.”构成了group(7),即需要的fragment,“#”和group(7)则构成了group(6)
这里(...(...)...)的意思是构成两个group,其中大括号对应的为group(i)的话,小括号对应的就是group(i+1),匹配模式分别为其括号内对应的内容。
最后附上自己的代码
class UrlParse:
def __init__(self, url):
self.url = url
self.colon_index = url.find(':')
self.single_smash_index = self.colon_index + 3 + url[self.colon_index+3:].find('/') # +3是用于去除双斜杆影响
self.question_mark_index = url.find('?')
self.hash_index = url.find('#')
def get_scheme(): # scheme一定是在第一个,并且以冒号结束
return self.url[:self.colon_index]
def get_netloc(): # 双斜杆开始,单斜杆结束
return self.url[self.colon_index+3:self.single_smash_index]
def get_path():
return self.url[self.single_smash_index:self.question_mark_index] # 包括单斜杆
def get_query_params(): # para有时不止两个
params = self.url[self.question_mark_index+1:self.hash_index]
paras = params.split('&')
def get_para(para):
equal_index = para.find('=')
return para[:equal_index], para[equal_index+1:]
parameters = dict()
for parameter in paras:
para_name, para_value = get_para(parameter)
parameters.setdefault(para_name, para_value)
return parameters
def get_fragment():
return self.url[self.hash_index+1:]
self.scheme = get_scheme()
self.netloc = get_netloc()
self.path = get_path()
self.query_params = get_query_params()
self.fragment = get_fragment()
url = UrlParse("http://mp.weixin.qq.com/s?__biz=MzA4MjEyNTA5Mw==&mid=2652566513#wechat_redirect")
print(url.scheme)
print(url.netloc)
print(url.path)
print(url.query_params)
print(url.fragment)