新浪SAE中文分词接口

发布于 2014年01月24日 更新于 2015年05月01日 

最近发现新浪SAE平台上竟然也提供分词功能,分词效果也还不错,由新浪爱问提供的分词服务,研究了一番,做了一个简易版的在线调用接口(get方式,非post)

官网说明:http://apidoc.sinaapp.com/class-SaeSegment.htmlSAE分词系统基于隐马模型开发出的汉语分析系統,主要功能包括中文分词、词性标注、命名实体识别、新词识别。

调用规则:http://simonfenci.sinaapp.com/index.php?key=simon&wd={语句}

(返回结果里包含分词词性,随便用个程序语言处理一下就行了,详见:http://apidoc.sinaapp.com/class-SaeSegment.html#POSTAG_ID_UNKNOW

只需要改变URL中的{语句}参数即可(编码为utf-8),因为是get方式传参,语句不能太长;也可以根据官方的api文档,做个简易的post方式。

另推荐几个分词系统:

1、Python的结巴中文分词系统(推荐),demo:http://jiebademo.ap01.aws.af.cm/ ,下载地址:https://github.com/fxsjy/jieba

2、中科院ICTCLAS中文分词系统,支持C/C#/C++/JAVA,32/64都有其对应的版本,有开发能力的可以尝试一下。

3、海量云分词系统demo ,分词效果也不错,可以申请到api接口,官网:http://www.hylanda.com/show_5_19.html

推荐阅读:

转自Fooying:四款python中文分词系统简单测试

转自知乎:有哪些比较好的中文分词方案?

看了此文的人貌似还看了这些:

  • 斗牛NLPIR中文分词工具V1.1 – 支持目录级文件的批量分词、新词识别 2014-05-19
  • NLPIR/ICTCLAS2014中科院分词系统Api接口 For 易语言 2014-04-09
  • NLPIR/ICTCLAS2014中科院分词系统Api接口 For 易语言 2014-04-09
  • 斗牛NLPIR中文分词工具V1.1 – 支持目录级文件的批量分词、新词识别 2014-05-19
  • 大型网站是否需要做URL伪静态化的问题? [ 思维想法]
  • LNMP及LANMP环境一键搭建教程 [ 推荐阅读/网络技术]
  • 斗牛百度长尾词拓展工具V4.0 (多种子词批量提取,斗牛SEO工具系列) [ 个人软件/推荐阅读]
  • [已招到]招聘SEO,坐标南京 [ SEO]
  • wordpress如何给read more和comment评论链接添加nofollow? [ 网络技术]
  • 斗牛爱站关键词采集/长尾词挖掘工具V4.0发布!(支持多站点,多关键词批量获取) [ 个人软件/推荐阅读]
  • 发表评论

    Time limit is exhausted. Please reload CAPTCHA.

       我相信你,不会发广告!

    斗牛SEO工具