当前位置:首页 > 教育论文 » 正文

语言学的会话原则(高级语言程序设计)

目录:

语言学的会话原则

高级语言程序设计

语言学的会话原则

语言学的会话原则

1、格莱斯1967年提出合作原则,他认为为了保证会话的顺利进行,谈话双方必须共同遵守一些基本原则,即合作原则。但是,在实际交际中人们并不是都严格遵守这些原则的,正是由于违反这些准则才产生会话含义。格莱斯的合作原则和会话含义理论引起了语言学界的轰动,许多学者高度评价,认为这是对语用学的一个重大突破。

2、本文以会话含义理论和合作原则为理论依据,分析电影《XXX》中的对话情节,分析合作原则在人物对话中的体现,以及违反合作原则所产生的会话含义。本文选取了9个对话,对违反合作原则的每个准则做出研究,旨在帮助读者更好地了解电影中人物的内心独白,人物特点及电影主旨。电影《XXX》中的大量的麦尔斯与翠西、翠西与威廉的对话情节,看似与主题没有太大联系,最终都成为烘托结局的绝佳素材,也从侧面突出了主题。熟练掌握并运用合作原则,会使交流更加流畅顺利,给交际增添色彩。

3、Grice first proposed Cooperative Principle in 196 He argues that people should observe the cooperative principle to ensure the smooth progress of the conversation. However, people don’t always abide by these XXxims in communication. It is the violation of these XXxims that produces conventional implicature. Grice’s Cooperative Principle and Conventional Implicature theory produces a sensation in linguistics.

4、This XXXXX XXXXyzes dialogues in the film Seven in the light of Conversational Implicature and Cooperative Principle to reflect the cooperative principle in the dialogues and the conversational implicature generated by the violation of Cooperative Principle. In this XXXXX, the author chooses 9 dialogues to XXke a research on the violation of each XXxim of Cooperative Principle so as to help the readers better understand the inner monologue, characteristics of the characters and the theme of the film. A large number of dialogues between Mills and Tracy, Tracy and WilliXX in the movie Seven, seemingly not connected with the theme, will eventually become a perfect XXterial foiling the ending and highlighting the theme from the side. Mastering and applying Cooperative Principle can XXke the conversation more fluent and smooth so that the conversation can be more colorful.

高级语言程序设计

高级语言程序设计

1、Reinforcement Learning:分为两种Policy-based 和 Value-based方法 利用graXXXnt进行求解 为什么要用log? 如果所有的R都是正的,那可以加上一个Baseline,使得调整参数过程中,可以增加或者减少。

2、 三者的关系可以形式化地表示如下: 认识到 Value-Based 与 Policy-Based 区别后,我们再来讨论下 Policy-Based RL 的优缺点: 优点: 收敛性更好 对于具有高维或者...是被称为策略梯度(Policy GraXXXnt,简称PG)算法。 当然,本篇内容同样的是针对 model-free 的强化学习。 Value-Based vs. Policy-Based RL

3、最大的 action. 而 policy graXXXnt 可以在一个连续分布上选取 action. 以回合为基础更新 Actor Critic 能结合概率和值 结合了 Policy GraXXXnt...Policy GraXXXnts 直接输出概率 Policy graXXXnt 是 RL 中另外一个大家族, 他不像 Value-based 方法 (Q learning, Sarsa), 但他也要

4、 **model-based 多建了一个学习到的虚拟环境,通过想象判断不同动作的结果。**eg.AlphaGo policy-based value-based 输出下一步采取各种行动的概率(每种动作都有可能被选中) 根据最高价值选择动作 用概率分布在连续的动作中选择特定的动作 × policy graXXXnts Q-learning、Sarsa Actor-Critic是两者的结合。actor

后台-系统设置-扩展变量-手机广告位-内容正文底部

本文标签:the  in  原则  ing

<< 上一篇 下一篇 >>

  • 评论(
  • 赞助本站

赞助团论文网
留言与评论(共有 0 条评论)
   
验证码:

相关文章

随机文章

标签列表

最近发表

    热门文章 | 最新文章 | 随机文章

最新留言

首页 论文知识 教育论文 毕业论文 教学论文 经济学 管理学 职称论文 法学 理学 医学 社会学 物理学 文献 工程论文 学位论文 研究论文

Powered 团论文网 版权所有 备案号:粤ICP备2022136924号-2统计代码

全站搜索