新浪SAE中文分词接口

发布于 2015年05月01日   

最近发现新浪SAE平台上竟然也提供分词功能,分词效果也还不错,由新浪爱问提供的分词服务,研究了一番,做了一个简易版的在线调用接口(get方式,非post)

官网说明:http://apidoc.sinaapp.com/class-SaeSegment.htmlSAE分词系统基于隐马模型开发出的汉语分析系統,主要功能包括中文分词、词性标注、命名实体识别、新词识别。

调用规则:http://simonfenci.sinaapp.com/index.php?key=simon&wd={语句}

(返回结果里包含分词词性,随便用个程序语言处理一下就行了,详见:http://apidoc.sinaapp.com/class-SaeSegment.html#POSTAG_ID_UNKNOW

只需要改变URL中的{语句}参数即可(编码为utf-8),因为是get方式传参,语句不能太长;也可以根据官方的api文档,做个简易的post方式。

另推荐几个分词系统:

1、Python的结巴中文分词系统(推荐),demo:http://jiebademo.ap01.aws.af.cm/ ,下载地址:https://github.com/fxsjy/jieba

2、中科院ICTCLAS中文分词系统,支持C/C#/C++/JAVA,32/64都有其对应的版本,有开发能力的可以尝试一下。

3、海量云分词系统demo ,分词效果也不错,可以申请到api接口,官网:http://www.hylanda.com/show_5_19.html

推荐阅读:

转自Fooying:四款python中文分词系统简单测试

转自知乎:有哪些比较好的中文分词方案?

看了此文的人貌似还看了这些:

  • 斗牛NLPIR中文分词工具V1.1 – 支持目录级文件的批量分词、新词识别 2014-05-19
  • NLPIR/ICTCLAS2014中科院分词系统Api接口 For 易语言 2014-04-09
  • NLPIR/ICTCLAS2014中科院分词系统Api接口 For 易语言 2014-04-09
  • 斗牛NLPIR中文分词工具V1.1 – 支持目录级文件的批量分词、新词识别 2014-05-19
  • URL中过多的参数是否会将google蜘蛛带入抓取死循环? [ SEO/推荐阅读/数据分析]
  • 【招聘】南京地区+seo及外链专员 [ SEO/推荐阅读]
  • 关于网站备案的那些事 [ Life]
  • lnmp下mysql 5.6内存占用过高解决方法 [ 网络技术]
  • wininet,winhttp,xmlhttprequest,ServerXmlHttpRequest各版本区别 [ 网络技术]
  • Google Chart API 图表 [ 数据分析]
  • 发表评论

    Time limit is exhausted. Please reload CAPTCHA.

       我相信你,不会发广告!

    斗牛SEO工具