超级简单的python微信自动回复机器人教程

来源:网络 文章列表 2018-12-07 8
本教程教大家如何用python实现微信机器人自动回复的功能。

一 简介

wxpy基于itchat,使用了 Web 微信的通讯协议,,通过大量接口优化提升了模块的易用性,并进行丰富的功能扩展。实现了微信登录、收发消息、搜索好友、数据统计等功能。

总而言之,可用来实现各种微信个人号的自动化操作。

安装:wxpy 支持 Python 3.4-3.6,以及 2.7 版本

pip3 install -U wxpy

 

二 登录微信

1、扫码登录微信

from wxpy import *

bot = Bot()

2、cache_path=True

运行上面的程序,会弹出二维码,用手机微信扫一扫即可实现登录。

但上面的程序有一个缺点,每次运行都要扫二维码。不过wxpy非常贴心地提供了缓存的选项,用于将登录信息保存下来,就不用每次都扫二维码,如下

bot = Bot(cache_path=True) # 必须先登录过一次以后才可以使用缓存

 

三 聊天机器人

1、为微信传输助手传送消息

这里的file_helper就是微信的文件传输助手,我们给文件传输助手发送一条消息,可以在手机端的文件传输助手中收到括号内的消息

bot.file_helper.send('egon say hello')

2、收发消息@bot.register()

from wxpy import *
bot=Bot(cache_path=True)


@bot.register()
def recv_send_msg(recv_msg):
    print('收到的消息:',recv_msg.text) # recv_msg.text取得文本
    return 'EGON自动回复:%s' %recv_msg.text

# 进入Python命令行,让程序保持运行
embed()

3、自动给老婆回复信息

当你在网吧吃着鸡,操作骚出天际时,你老婆打电话让你回家吃饭,此时你怎么办。。。

from wxpy import *
bot=Bot(cache_path=True)

girl_friend=bot.search('Quincy.Coder')[0]
print(girl_friend)

@bot.register(chats=girl_friend) # 接收从指定好友发来的消息,发送者即recv_msg.sender为指定好友girl_friend
def recv_send_msg(recv_msg):
    print('收到的消息:',recv_msg.text) # recv_msg.text取得文本
    if recv_msg.sender == girl_friend:
        recv_msg.forward(bot.file_helper,prefix='老婆留言: ') #在文件传输助手里留一份,方便自己忙完了回头查看
        return '老婆最美丽,我对老婆的爱如滔滔江水,连绵不绝' #给老婆回一份

embed()

4、从微信群中定位好友

老板的信息一定要及时回复

bot=Bot(cache_path=True)

company_group=bot.groups().search('群名称')[0]

boss=company_group.search('老板的微信名称')[0]

@bot.register(chats=company_group) #接收从指定群发来的消息,发送者即recv_msg.sender为组
def recv_send_msg(recv_msg):
    print('收到的消息:',recv_msg.text)
    if recv_msg.member == boss:
        recv_msg.forward(bot.file_helper,prefix='老板发言: ')
        return '老板说的好有道理,深受启发'

embed()

5、聊天机器人

给所有人自动回复

import json
import requests
from wxpy import *
bot = Bot(console_qr=True, cache_path=True)

# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
    url = "http://www.tuling123.com/openapi/api"
    api_key = "申请图灵机器人获取key值放到这里"
    payload = {
        "key": api_key,
        "info": text,
    }
    r = requests.post(url, data=json.dumps(payload))
    result = json.loads(r.content)
    return "[EGON微信测试,请忽略] " + result["text"]


@bot.register()
def forward_message(msg):
    return auto_reply(msg.text)

embed()

给指定的群回复

import json
import requests
from wxpy import *
bot = Bot(console_qr=True, cache_path=True)

group=bot.groups().search('教学部三人组')[0]
print(group)

# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
    url = "http://www.tuling123.com/openapi/api"
    api_key = "申请图灵机器人获取key值放到这里"
    payload = {
        "key": api_key,
        "info": text,
    }
    r = requests.post(url, data=json.dumps(payload))
    result = json.loads(r.content)
    return "[EGON微信测试,请忽略] " + result["text"]


@bot.register(group)
def forward_message(msg):
    return auto_reply(msg.text)

embed() 

给指定的人回复

import json
import requests
from wxpy import *
bot = Bot(console_qr=True, cache_path=True)

girl_friend=bot.search('Quincy.Coder')[0]

# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
    url = "http://www.tuling123.com/openapi/api"
    api_key = "申请图灵机器人获取key值放到这里"
    payload = {
        "key": api_key,
        "info": text,
    }
    r = requests.post(url, data=json.dumps(payload))
    result = json.loads(r.content)
    return "[EGON微信测试,请忽略] " + result["text"]


@bot.register()
def forward_message(msg):
    if msg.sender == girl_friend:
        return auto_reply(msg.text)

embed()

 

四 微信好友男女比例

from wxpy import *
from pyecharts import Pie

bot=Bot(cache_path=True) #注意手机确认登录

friends=bot.friends()

attr=['男朋友','女朋友']
value=[0,0]
for friend in friends:
    if friend.sex == 1: # 等于1代表男性
        value[0]+=1
    elif friend.sex == 2: #等于2代表女性
        value[1]+=1

pie = Pie("Egon老师的好朋友们")
pie.add("", attr, value, is_label_show=True)
pie.render('sex.html')

 

五 微信好友地域分布

from wxpy import *
from pyecharts import Map

bot=Bot(cache_path=True)

friends=bot.friends()


area_dic={}
for friend in friends:
    if friend.province not in area_dic:
        area_dic[friend.province]=1
    else:
        area_dic[friend.province]+=1

attr = area_dic.keys()
value = area_dic.values()



map = Map("Egon老师好朋友们的地域分布", width=1200, height=600)
map.add(
    "好友地域分布",
    attr,
    value,
    maptype='china',
    is_visualmap=True, #结合体VisualMap
    visual_text_color='#000'
)
map.render('area.html')

 

六 微信好友数据分析之词云

#安装软件
pip3 install jieba

pip3 install pandas

pip3 install numpy

pip3 install scipy

pip3 install wordcloud

代码

from wxpy import *
import re
import jieba
import pandas as pd
import numpy

bot=Bot(cache_path=True)
friends=bot.friends()


# 统计签名
with open('signatures.txt','w',encoding='utf-8') as f:
    for friend in friends:
        # 对数据进行清洗,将标点符号等对词频统计造成影响的因素剔除
        pattern=re.compile(r'[一-龥]+')
        filterdata=re.findall(pattern,friend.signature)
        f.write(''.join(filterdata))



#过滤停止词
with open('signatures.txt','r',encoding='utf-8') as f:
    data=f.read()
    segment=jieba.lcut(data)

    words_df=pd.DataFrame({'segment':segment})
    stopwords = pd.read_csv("stopwords.txt", index_col=False, quoting=3, sep=" ", names=['stopword'], encoding='utf-8')
    words_df = words_df[~words_df.segment.isin(stopwords.stopword)]


#使用numpy进行词频统计
words_stat = words_df.groupby(by=['segment'])['segment'].agg({"计数":numpy.size})
words_stat = words_stat.reset_index().sort_values(by=["计数"],ascending=False)
# print(words_stat)

#词频可视化:词云,基于wordcloud库,当然pyecharts也可以实现
from scipy.misc import imread
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt

# 设置词云属性
# color_mask = imread('background.jfif')
# color_mask = imread('bg.jpg')
color_mask = imread('bg1.jpeg')

wordcloud = WordCloud(
                # font_path="simhei.ttf",   # mac上没有该字体
                font_path="/System/Library/Assets/com_apple_MobileAsset_Font3/6d903871680879cf5606a3d2bcbef058e56b20d4.asset/AssetData/华文仿宋.ttf",   # 设置字体可以显示中文
                background_color="white",       # 背景颜色
                max_words=100,                  # 词云显示的最大词数
                mask=color_mask,                # 设置背景图片
                max_font_size=100,              # 字体最大值
                random_state=42,
                width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,                                                   # 那么保存的图片大小将会按照其大小保存,margin为词语边缘距离
                )

# 生成词云, 可以用generate输入全部文本,也可以我们计算好词频后使用generate_from_frequencies函数
word_frequence = {x[0]:x[1]for x in words_stat.head(100).values}
print(word_frequence)
word_frequence_dict = {}
for key in word_frequence:
    word_frequence_dict[key] = word_frequence[key]

print(word_frequence_dict)
wordcloud.generate_from_frequencies(word_frequence_dict)
# 从背景图片生成颜色值
image_colors = ImageColorGenerator(color_mask)
# 重新上色
wordcloud.recolor(color_func=image_colors)
# 保存图片
wordcloud.to_file('output.png')
plt.imshow(wordcloud)
plt.axis("off")
plt.show()

基于pyecharts绘制词云图

from wxpy import *
import re
import jieba
import pandas as pd
import numpy

bot=Bot(cache_path=True)
friends=bot.friends()

# 统计签名
with open('signatures.txt','w',encoding='utf-8') as f:
    for friend in friends:
        # 对数据进行清洗,将标点符号等对词频统计造成影响的因素剔除
        pattern=re.compile(r'[一-龥]+')
        filterdata=re.findall(pattern,friend.signature)
        f.write(''.join(filterdata))



#过滤停止词
with open('signatures.txt','r',encoding='utf-8') as f:
    data=f.read()
    segment=jieba.lcut(data)

    words_df=pd.DataFrame({'segment':segment})
    stopwords = pd.read_csv("stopwords.txt", index_col=False, quoting=3, sep=" ", names=['stopword'], encoding='utf-8')
    words_df = words_df[~words_df.segment.isin(stopwords.stopword)]


#使用numpy进行词频统计
words_stat = words_df.groupby(by=['segment'])['segment'].agg({"计数":numpy.size})
words_stat = words_stat.reset_index().sort_values(by=["计数"],ascending=False)
print(words_stat)

#可是化词云
from pyecharts import WordCloud
word_frequence = {x[0]:x[1]for x in words_stat.head(100).values}

name = word_frequence.keys()
value = word_frequence.values()
wordcloud = WordCloud(width=1300, height=620)
wordcloud.add("", name, value, word_size_range=[20, 100])
wordcloud.render('cy.html')

 

 

腾讯云限量秒杀

1核2G 5M 50元/年 2核4G 8M 74元/年 4核8G 5M 818元/年 CDN流量包 100GB 9元

版权声明

本站部分原创文章,部分文章整理自网络。如有转载的文章侵犯了您的版权,请联系站长删除处理。如果您有优质文章,欢迎发稿给我们!联系站长:
愿本站的内容能为您的学习、工作带来绵薄之力。

评论

  • 随机获取
点击刷新
精彩评论

友情链接