您的位置:首页 > 其它

利用百度nlp 来进行 各种自然语言分析和 文本分析

2018-03-18 23:09 351 查看
import urllib, urllib2, sys
import ssl

# client_id 为官网获取的AK, client_secret 为官网获取的SK, 重新申请新的应用,然后获得
host = 'https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=【官网获取的AK】&client_secret=【官网获取的SK】'
request = urllib2.Request(host)
request.add_header('Content-Type', 'application/json; charset=UTF-8')
response = urllib2.urlopen(request)
content = response.read()
if (content):
    print(content)

#////////////////////////////////////////////
#先用上面的程序取得access_token, 1个月就会失效,需要重新申请应用,使用新的

#-*- coding:utf-8 -*-
import sys
reload(sys)
sys.setdefaultencoding("gbk")

import urllib
import json

#长度不超过20000字节

params={"text": "百度是一家高科技公司"}

import requests
import json
access_token='24.7fac1c12c6e940008e9324c01bcf0820.2592000.1523977215.282335-10947949'
#拼接在url后面
url = 'https://aip.baidubce.com/rpc/2.0/nlp/v1/lexer?access_token='+access_token

headers = {'Content-Type': 'application/json'}

post_text = json.dumps(params, ensure_ascii=False).encode('gbk')

r = requests.post(url, params='', data=post_text, headers=headers)

print(r.content)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: