搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
出版时间 :
语音语言处理导论:[英文本]
0.00     定价 ¥ 46.00
上海丹诚
此书还可采购1本,持证读者免费借回家
  • 所 属 馆 :
    宝山区图书馆
  • ISBN:
    9787301171530
  • 作      者:
    作者John Coleman
  • 出 版 社 :
    北京大学出版社
  • 出版日期:
    2010
收藏
内容介绍
    中国国内中俄翻译研究也不遑多让,大约在上世纪50年代中期便已开始。可惜的是,这些中文相关早期机器翻译研究,由于硬件与软件的限制,没能延续下来。中文计算语言学研究比较有系统的进展,还要等到1986年;海峡两岸在同一年成立了两个致力于中文计算语言学基础架构建立的研究群。北京大学的计算语言学研究所在朱德熙先生倡导下成立,随后一段时间由陆俭明、俞士汶主持。而台湾“中研院”的中文词知识库小组,由谢清俊创立,陈克健主持,黄居仁1987年返台后加入。
展开
精彩书摘
    语音和语言处理都以人类语言为处理对象,但处理的层面却不相同。语音处理关注的是利用计算机对语音信号进行分析和综合,从而实现合成和识别人类语音。而语言处理更多关注对人类语言的句法、语义进行建模,终极目标是实现人类语言的机器理解。<br>    尽管语音处理和语言处理的对象都是人类语言,不过传统上这是两个相互独立的学科,这两个领域的研究和教学也是独立进行的,教科书内容通常也不交叉。不过近年来,随着这两个学科的进一步发展,它们之间的关系变得日益密切,两个学科之间的联系越来越受到人们的重视。人们越来越意识到,对于语言理解而言,语音特征绝非没有价值。反过来,语音处理研究也需要关注语言处理的进展,将语言处理的成果应用到语音识别和语音合成研究,有利于提升语音处理的性能。此外,这两个学科在方法论方面也有共性,相互影响和借鉴的情况也时有发生。例如,在20世纪80年代,隐马尔可夫模型被用来解决词性自动标注问题,就是受到该模型应用在语音识别研究中获得成功的启发,尤其值得一提的是,隐马尔可夫模型引入语言处理领域所产生的影响决不是局部性的,它带动了以语料库为基础的经验主义方法在语言处理领域的全面复苏,有着十分重要的意义。这些事例说明,语音和语言处理正在日趋交叉和融合,未来的相关研究和开发需要对这两个领域都有相当理解和把握的人才。<br>    ……
展开
目录
导读<br>Acknowledgements and copyright notices<br>1 Introduction<br>1.1 About this book<br>1.2 Purpose of this book<br>1.3 Some reasons to use this book<br>1.4 What's in the book (and what's not)<br>1.5 Computational set-up needed for this book<br>1.6 Computational skills that are necessary in order to use the book<br>1.7 Free software suggestions<br>1.8 Book structure<br><br>Sounds and numbers<br>2.1 Preparatory assignments<br>2.2 Solutions<br>2.3 Sampling<br>2.4 Quantization<br>2.5 The sampling theorem<br>2.6 Generating a signal<br>2.7 Numeric data types<br>2.8 The program<br>2.9 Structure of a loop<br>2.10 Structure of an array<br>2.11 Calculating the cosine values<br>2.12 Structure of the program<br>2.13 Writing the signal to a file<br>Chapter summary<br>Further Exercises<br>Further reading<br><br>Digital filters and resonators<br>3.1 Operations on sequences of numbers<br>3.2 A program for calculating RMS amplitude<br>3.3 Filtering<br>3.4 A program for calculating running means of 4<br>3.5 Smoothing over a longer time-window<br>3.6 Avoiding the need for long window <br>3.7 IIR filters in C<br>3.8 Structure of the Klatt formant synthesizer<br>Chapter summary<br>Exercises<br>Further reading<br><br> Frequency analysis and linear predictive coding<br>4.1 Spectral analysis<br>4.2 Spectral analysis in C<br>4.3 Cepstral analysis<br>4.4 Computation of the cepstrum in C<br>4.5 Pitch tracking using cepstral analysis<br>4.6 Voicing detection<br>4.7 f0estimation by the autocorrelation method<br>4.8 Linear predictive coding<br>4.9 C programs for LPC analysis and resynthesis<br>4.10 Trying it out<br>4.11 Applications of LPC<br>Chapter Summary<br>Further exercises<br>Further reading<br><br>Finite-state machines<br>5. 1 Some simple examples<br>5.2 A more serious example<br>5.3 Deterministic and non-deterministic automata<br>5.4 Implementation in Prolog<br>5.5 Prolog's processing strategy and the treatment<br>of variables<br>5.6 Generating strings<br>5.7 Three possibly useful applications o{ that idea<br>5.8 Another approach to describing finite-state machines<br>5.9 Self-loops<br>5.10 Finite-state transducers(FSTs)<br>5.11 Using finite-state transducers to relate speech to phonemes<br>5.12 Finite-state phonology<br>5.13 Finite-state syntactic processing<br>Chapter summary<br>Further exercises<br>Further reading<br><br>Introduction to speech recognition techniques<br>6.1 Architectures for speech recognition<br>6.2 The pattern-recognition approach<br>6.3 Dynamic time warping<br>6.4 Applications<br>6.5 Sources of variability in speech<br>Chapter summary<br>Further reading<br><br>Probabilistic finite-state models<br>7.1 Introduction<br>7.2 Indeterminacy: n-gram models for part-of-speech tagging ~<br>7.3 Some probability theory for language modelling<br>7.4 Markov models<br>7.5 Trigram models<br>7.6 Incompleteness of the training corpus<br>7.7 Part-of-speech model calculations<br>7.8 Using HMMs for speech recognition<br>7.9 Chomsky's objections to Markov models and some rejoinders<br>Chapter summary<br>Further reading<br><br>Parsing<br>8.1 Introduction<br>8.9 A demo<br>8.3 Intuitive parsing<br>8.4 Recursive descent parsing<br>8.5 The simplest parsing program<br>8.6 Difference lists<br>8.7 Generating a parse tree<br>8.8 Syllabification<br>8.9 Other parsing algorithms<br>8.10 Chart parsing<br>8.11 Depth-first vs. breadth-first search<br>8.19 Deterministic parsing, Marcus parsing and minimal commitment parsing<br>8.13 Parallel parsing<br>Chapter summary<br>Further reading<br><br>Using probabilistie grammars<br>9.1 Motivations<br>9.2 Probabilistic context-free grammars<br>9.3 Estimation of rule probabilities<br>9.4 A practical example<br>9.5 A limitation of probabilistic context-free grammars<br>9.6 Tree adjoining grammars<br>……
展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

温馨提示:请使用注册云书房的手机号与密码进行登录

点击获取验证码
登录
没有账号密码?立即注册  修改密码