深度主题(谁可以告诉几个有趣的辩论会主题)

1. 深度主题,谁可以告诉几个有趣的辩论会主题?

同学,你好,你的问题让我想起高中时代对辩论极度狂热的我,言归正传,接下来几个题目是从历届国际(或全国)大学、大专辩论赛中选出的比较有趣的辩题,希望对你有所帮助。1. 男(女)人活得比女(男)人累2. 网聊有(无)聊3. 爱与被爱哪个更幸福4. 好马应不应该吃回头草5. 笑比哭还是哭比笑好6. 我是老板,会选择孙悟空(猪八戒)做员工7. 我选爱我(我爱)的人结婚的人结婚

深度主题(谁可以告诉几个有趣的辩论会主题)

2. 大护法这样有深度的动画合适中国市场吗?

我是卡熳,写文又卡又慢。

《大护法》的确是这两年国漫中的一根独苗,不过它到底适不适合现在的中国市场呢?

卡熳只能说,不适合现在的中国市场

我们深谙的一个道理是:有需求就会有市场。

而《大护法》显然不是现在国内动漫市场内的刚需。它所表达的精髓是比较隐晦的,并且有一些令人不适的镜头,有的人可能看不懂,有的人又会觉得画面血腥。

国内动漫市场的刚需,只要看看这些年被追捧的作品类型就一目了然了:热血、搞笑、恋爱、电玩、耽美……

代表作有《狐妖小红娘》、《一人之下》、《全职高手》和《魔道祖师》等等。

那这些作品的受众是什么样的人呢?多为90后、00后,还有少量的80后。

在现阶段的中国动漫市场里,我们常见的题材还是要稍微“浅薄”一些的,就算是那些比较有深度的话题,也需要用轻松和搞笑的方式表现出来。

因为,不管是80、90、00都是现在社会的高压群体,他们往往更爱看不需要太费脑力、而且轻松愉快一些的作品。

《大护法》不被重视,也是很平常的事情。

未来可期

然而在未来,我觉得会有越来越多类似于《大护法》的动漫作品问世。

以利益驱动的任何行业,都要做符合大众口味的产品。

消费者与行业会相互影响,行业肯定会对于消费者的变化和成长做出调整。

随着80、90、00后的成长,他们对动画的鉴赏品味和需求也会有所改变。

12岁的时候喜欢看热血番16岁的时候喜欢看恋爱番20岁的时候喜欢看搞笑番……

等等……

也许等到了25+岁后,观众们就更希望去看一些内容深刻的作品了:可能是探讨人性阴暗面的,也可能是探讨某个zhengzhi问题的。

所以,如果那个时候这些人还在坚持看动漫,《大护法》这类题材的动画片会受到更多人的关注,也越来越有市场。

-END-

我是卡熳,劈个叉都是爱你的形状

想听你的赞同和反驳~随便来!记得点赞再走~

如果喜欢我的回答,别忘了分享给你的基友们

(*╹▽╹*)

3. 我们为什么要进行深度阅读?

下面我从什么是深度阅读?深度阅读的内容,步骤,前提和本质等几个各方面去谈谈自己的看法。

什么是深度阅读?

深度阅读其实不是像挖坑一样,纵向的,就一个知识往深了挖,而是横向的提升我们的视角。阅读的时候,我们就是在不断的拓展我们的视角,以及看问题的能力。

深度阅读的内容?

任何类型的书都有值得深度阅读的,因此判断深度阅读的对象不是针对哪一本书,也不是针对哪一类书,而是针对概念,如果在理解某个概念的过程中,它让我们感觉到困惑、喜悦、力量和价值,这个时候就可以针对这个内容进行深度阅读。 也就是说我们不仅仅应该满足知道了这个概念是什么,还需要通过广泛的阅读找到更多理解这个概念的视角,比如这个概念怎么使用,原理是什么等等,只有把这些东西都弄清楚了,才算真正拥有了这个知识。

深度阅读的三个步骤。

一是寻找是寻找联系,二是探索概念背后的深层逻辑,三是多场景应用。

先说寻找联系,其实就是叶圣陶先生在《文心》中所说的“触发”。我们在学习一个新知识的时候,会触发以往的经验积累和知识积累,产生似曾相识的感觉。这个时候新知识就和我们的经验和知识储备产生了联系,发生了碰撞。我们一定要珍惜这个触发点。一方面这是把新知识纳入我们原有知识体系中的门径。另一方面新知识和我们的经验以及具有知识的化合也是创造的起点。

再说探索概念背后的深层逻辑。每一个概念背后都有它的原理来源和底层规律。我们就是要通过深度阅读去寻找概念背后的底层规律,一旦我们明白了概念背后的原理,再去给别人讲解的时候,就有一整套理论支持我们的观点。

最后一步是多场景应用。要尝试在不同场合,不同场景中运用所学过的概念。

深度阅读的前提。

要对某个知识有足够的了解。 判断对一个知识是否足够了解的方法也很简单:要能够用自己的话去总结书中的核心概念。如果不能用自己的话把书中的核心概念讲出来,就不可能执行前面说的深度阅读的三个步骤。

所以说深度阅读不是把一本书从头到尾读完,不是记住所有读过的内容,也不是把所有的经典都拿来深度阅读。

深度阅读的本质在于理解。

分享知识,成就个人。我是数峰无语,更多精彩请见公众号shufengwuyu

4. 赖床的男人小说戴维洛奇赏析?

《赖床的男人》是学院派小说代表、布克奖提名作家戴维 · 洛奇的短篇小说集,由《赖床的男人》《小气鬼》《我的第一份工作》《在气候淫热的地方》《酥胸酒店》《田园交响曲》《一场刻骨铭心的婚礼》《我的前一个老婆》等八个短篇小说构成。与其长篇小说相比,更轻松活泼,同时兼具戴维 · 洛奇一贯的辛辣讽刺风格。戴维 · 洛奇认为,“这八个故事几乎包含了我作为小说作家生活的全部。”

《赖床的男人》是这本短篇小说集中的第一个故事,篇幅很短,5000 字左右,却讲述了一个有趣却不乏严肃的“微反叛”故事。

一个男人, 在冬天某个寒冷的早晨突然不想起床。外面天寒地冻,年久失修的房子冷意嗖嗖。但裹在被窝里永远是温暖而舒适的。打个呵欠,伸个懒腰,就是他一天中肉体上最满足的时光。

谁想起床呢?妻子、孩子、票子……只要一起床,拉拉杂杂的生活就蜂拥而至,让人无从躲避。日复一日的生活呀,似乎是比寒冷更加消磨人的东西。磨光了热情,磨光了希望,曾经的抱怨和不满也都被磨成了难以言说的绝望。

男人躺在床上,想着起床以后的程序:洗漱、刮胡子、穿衣、吃饭、排队等公交去上班……他突然领悟到,自己对生活不再充满爱意,他唯一的热爱就是:躺在床上。于是,他决定再也不起床,将余生都在床上度过。

一天后,医生来了;两天后,牧师来了……他们都没能说服他起床。一周后,他身上开始长疮,两周后,他已经瘫痪在床,需要护工照料日常生活。

可是,奇怪的事情发生了。

虽然他不再赚钱养家,但家里的日常开销、护工的工资、修缮房屋的开支似乎完全不受影响,他的妻子更加敬重他了,电视台也来采访他,他突然变成了敢于反叛生活的英雄。人们不仅鼓励、祝福他,甚至给他提供现金和待遇丰厚的工作机会。他觉得自己从来没有这样幸福过,也从来没有这样富有成就感。

赖床的男人幸福着,却无法阻止日渐虚弱的身体……

5. 如何才能深度学习呢?

在今年的 ICML 上,深度学习理论成为最大的主题之一。会议第一天,Sanjeev Arora 就展开了关于深度学习理论理解的教程,并从四个方面分析了关于该领域的研究:非凸优化、超参数和泛化、深度的意义以及生成模型。

2017 年 12 月 NIPS 的 Test-of-Time Award 颁奖典礼上,Ali Rahimi 这样呼吁人们加深对深度学习的理解:

我希望生活在这样的一个世界,它的系统是建立在严谨可靠而且可证实的知识之上,而非炼金术。[……] 简单的实验和定理是帮助理解复杂大现象的基石。

Ali 的目标不是解散各个领域,而是「展开对话」。这个目标已经实现了,但对于目前的深度学习应被视为炼金术还是工程或科学,人们仍存在分歧。

7 个月后,在斯德哥尔摩举行的国际机器学习会议 (ICML) 上,机器学习社区又聚焦了这个问题。此次大会与会者有 5000 多名,并累计发表论文 629 篇,这是基础机器学习研究的「年度大戏」。而深度学习理论已成为此次会议的最大主题之一。

会议第一天,最大的房间里就挤满了机器学习相关人员,他们准备聆听 Sanjeev Arora 关于深度学习理论理解的教程。这位普林斯顿大学计算机科学教授在演讲中总结了目前的深度学习理论研究领域,并将其分成四类:

非凸优化:如何理解与深度神经网络相关的高度非凸损失函数?为什么随机梯度下降法会收敛?

超参数和泛化:在经典统计理论中,为什么泛化依赖于参数的数量而非深度学习?存在其它较好的泛化方法吗?

深度的意义:深度如何帮助神经网络收敛?深度和泛化之间的联系是什么?

生成模型:为什么生成对抗网络(GAN)效果非常好?有什么理论特性能使模型稳定或者避免模式崩溃?

在这一系列的文章中,我们将根据最新的论文(尤其是 ICML2018 的论文),帮助大家直观理解这四个方面。

第一篇文章将重点讨论深度网络的非凸优化问题。

非凸优化

我敢打赌,你们很多人都曾尝试过训练自己的「深度网络」,结果却因为无法让它发挥作用而陷入自我怀疑。这不是你的错。我认为都是梯度下降的错。

Ali Rahimi 在 NIPS 演讲中曾说,随机梯度下降 (SGD) 的确是深度学习的基石,它应该解决高度非凸优化问题。理解它何时起作用,以及为什么起作用,是我们在深度学习的基本理论中一定会提出的最基本问题之一。具体来说,对于深度神经网络的非凸优化研究可以分为两个问题:

损失函数是什么样的?

SGD 为什么收敛?

损失函数是什么样的?

如果让你想象一个全局最小值,很可能你脑海中出现的第一幅图是这样的:

二维世界中的全局最小值附近,函数是严格凸的(这意味着 hessian 矩阵的两个特征值都是正数)。但在一个有着数十亿参数的世界里,就像在深度学习中,全局最小值附近的方向都不平坦的可能性有多大?或者 hessian 中一个为零(或近似为零)的特征值都没有的概率有多大?

Sanjeev Arora 在教程中写的第一个评论是:损失函数的可能方向数量会随着维度的增长呈指数增长。

直观上看,全局最小值似乎不是一个点而是一个连接管(connected manifold)。这意味着如果找到了全局最小值,你就能够穿过一条平坦的路径,在这条道路上,所有的点都是最小值。海德堡大学的一个研究团队在论文《Essentially No Barriers in Neural Network Energy Landscape》中证明了这一点。他们提出了一个更常规的说法,即任何两个全局最小值都可以通过一条平坦的路径连接。

在 MNIST 上的 CNN 或在 PTB 上的 RNN 已经是这样的情况,但是该项研究将这种认知扩展到了在更高级的数据集(CIFAR10 和 CIFAR100)上训练的更大网络(一些 DenseNet 和 ResNet)上。为了找到这条路径,他们使用了一种来自分子统计力学的启发式方法,叫做 AutoNEB。其思想是在两个极小值之间创建一个初始路径(例如线性),并在该路径上设置中心点。然后迭代地调整中心点的位置,以最小化每个中心点的损失,并确保中心点之间的距离保持不变(通过用弹簧建模中心点之间的空间)。

虽然他们没有从理论上证明这个结果,但他们对为什么存在这样的路径给出了一些直观的解释:

如果我们扰乱单个参数,比如添加一个小常数,然后让其它部分去自适应这种变化,仍然可以使损失最小化。因此可以认为,通过微调,无数其它参数可以「弥补」强加在一个参数上的改变。

因此,本文的结果可以帮助我们通过超参数化和高维空间,以不同的方式看待极小值。

通俗来说,当考虑神经网络的损失函数时,你应该牢记一个给定的点周围可能有非常多的方向。由此得出另一个结论,鞍点肯定比局部最小值多得多:在给定的关键点上,在数十亿个可能的方向中,很可能会找到一个向下的方向(如果不是在全局最小值上)。这种认知在 NIPS 2014 年发表的论文《Identifying and attacking the saddle point problem in high-dimensional non-convex optimization》中被严格规范化,并得到了实证证明。

为什么 SGD 收敛(或不收敛)?

深度神经网络优化的第二个重要问题与 SGD 的收敛性有关。虽然这种算法长期以来被看做是一种快速的近似版梯度下降,但我们现在可以证明 SGD 实际上收敛于更好、更一般的最小值。但我们能否将其规范化并定量地解释 SGD 脱离局部极小值或鞍点的能力?

SGD 修改了损失函数

论文《An Alternative View: When Does SGD Escape Local Minima?》表明,实施 SGD 相当于在卷积(所以平滑)的损失函数上进行常规梯度下降。根据这一观点并在某些假设下,他们证明了 SGD 将设法脱离局部最小值,并收敛到全局最小值附近的一个小区域。

SGD 由随机微分方程控制

连续 SGD 彻底改变了我对这个算法的看法。在 ICML 2018 关于非凸优化的研讨会上,Yoshua Bengio 在他关于随机梯度下降、平滑和泛化的演讲中提出了这个想法。SGD 不是在损失函数上移动一个点,而是一片点云或者说一个分布。

幻灯片摘自 Y. Bengio 在 ICML 2018 发表的演讲。他提出用分布(或点云)代替点来看待 SGD。

这个点云的大小(即相关分布的方差)与 learning_rate / batch_size 因子成正比。Pratik Chaudhari 和 Stefano Soatto 在论文《Stochastic gradient descent performs variational inference, converges to limit cycles for deep networks》中证明了这一点。这个公式非常直观:较低的 batch size 意味着梯度非常混乱(因为要在数据集一个非常小的子集上计算),高学习率意味着步骤混乱。

将 SGD 视为随时间变化的分布可以得出:控制下降的方程现在是随机偏微分方程。更准确地说,在某些假设下,论文表明控制方程实际上是一个 Fokker-Planck 方程。

幻灯片摘自 P. Chaudhari 和 S. Soatto 在 ICML 2018 发表的演讲——《High-dimensional Geometry and Dynamics of Stochastic Gradient Descent for Deep Networks》。他们展示了如何从离散系统过渡到 Fokker-Plank 方程所描述的连续系统。

在统计物理学中,这种类型的方程描述了暴露在曳力 (使分布推移,即改变平均值) 和随机力 (使分布扩散,即增加方差) 下的粒子的演化。在 SGD 中,曳力由真实梯度建模,而随机力则对应算法的内在噪声。正如上面的幻灯片所示,扩散项与温度项 T = 1 /β= learning_rate /(2 * batch_size) 成正比,这再次显示了该比值的重要性!

Fokker-Planck 方程下分布的演化。它向左漂移,随时间扩散。图源:维基百科

通过这个框架,Chaudhari 和 Soatto 证明了我们的分布将单调地收敛于某个稳定的分布(从 KL 散度的意义来说):

Pratik Chaudhari 和 Stefano Soatto 论文的一个主要定理,证明了分布的单调会收敛到稳定状态(在 KL 散度意义中)。第二个方程表明,使 F 最小化相当于最小化某个潜在的ϕ以及扩大熵的分布(温度 1 /β控制的权衡)。

在上面的定理中有几个有趣的观点:

SGD 最小化的函数可以写成两项之和(Eq. 11):潜在Φ和熵的分布。温度 1 /β控制这两项的权衡。

潜在Φ只取决于数据和网络的架构(而非优化过程)。如果它等于损失函数,SGD 将收敛到全局最小值。然而, 本文表明这种情况比较少见。而如果知道Φ与损失函数的距离,你将可以知道 SGD 收敛的概率。

最终分布的熵取决于 learning_rate/batch_size(温度)的比例。直观上看,熵与分布的大小有关,而高温会导致分布具有更大的方差,这意味着一个平坦的极小值。平坦极小值的泛化能力更好,这与高学习率和低 batch size 能得到更优最小值的经验是一致的。

因此,将 SGD 看作是一个随时间变化的分布表明,在收敛性和泛化方面,learning_rate/batch_size 比每个独立的超参数更有意义。此外,它还引入了与收敛相关的网络潜力,为架构搜索提供了一个很好的度量。

结论

探索深度学习理论的过程可以分为两部分:首先,通过简单的模型和实验,建立起关于深度学习理论如何及其为什么起作用的认知,然后将这些理念以数学形式呈现,以帮助我们解释当前的结论并得到新的结果。

在第一篇文章中,我们试图传达更多关于神经网络高维损失函数和 SGD 解说的直观认知,同时表明新的形式主义正在建立,目的是建立一个关于深层神经网络优化的真正数学理论。

然而,虽然非凸优化是深度学习的基石并且拥有大量的层数和参数,但它取得的成功大部分源于其优秀的泛化能力。这将是下一篇文章将分享的内容。

Sanjeev Arora:印度裔美国理论计算机科学家,他以研究概率可检验证明,尤其是PCP定理而闻名。研究兴趣包括计算复杂度理论、计算随机性、概率可检验证明等。他于2018年2月被推选为美国国家科学院院士,目前是普林斯顿大学计算机科学系教授。

6. 达到深度工作的状态?

我们来借鉴一下王阳明的心学,如何把自己的心静下来,去面对世间万物,阳明心学四句教:“无善无恶心之体,有善有恶意之动,知善知恶是良知,为善去恶是格物。”理解这四句话,所有的困惑将变得清晰,所有的犹豫将变成果断。

人类史上有两种哲学家,一种是不停奔走,向各种各样的人和物请教、传播自己的学说,比如柏拉图。另一种是不喜欢走远路,只是安静地坐着,从自己心坎上说起,比如中国理学的大师们,王阳明也是其中之一。

我们都知道,想让自己忙碌多年的心静下来其实很难。所以静坐有很多门道。

首先要有个好环境,这个环境应该不受外界干扰,非常安静,如此才能比较容易静下来;其次,要将身体安放好,也就是静坐的姿势。坐姿可有很多种,盘坐、立坐皆可。佛家和道家喜欢用盘坐。立坐就是“正襟危坐”:双手平放膝上,背挺直,全身放松。王阳明心学用的是此法。最后,调整呼吸。不能张着嘴,应纯用鼻呼吸,一面呼吸,一面数呼吸的次数,最后让呼吸平稳。

做好这三件事后,王阳明说:

教人为学,不可执一偏。初学时心猿意马,拴缚不定,其所思虑,多是人欲一边。故且教之静坐,息思虑。久之,俟其心意稍定,只悬空静守,如枯木死灰,亦无用,须教他省察克治,……将好色、好货、好名等私,逐一搜寻出来,……才有一念萌动,即与克去,斩钉截铁,不可姑容与他方便。

王阳明要人静坐有两个步骤,第一步是“息思虑”,也就是让自己的心进入空寂境界。让心空,佛家和道家会念口诀,儒家没有口诀,但“天人合一”“阴阳变易”“贵和尚中”“知行合一”都是最好的口诀,念口诀时须念念相随连绵不断。如此可取得以一念代替万念的作用,时间一久,自然入静。

如果仅停留在此,那就是枯禅。所以有第二步“省察克治”,先省察哪些是私欲,良知会干脆地告诉你答案:好色、好货、好名都是私欲。然后是克治,以前有这些私欲不要紧,现在我就把它灭了,斩钉截铁,绝不姑息。当然,不能总盯着这些私欲不放,还要想天理。尧舜气象,仁、义、礼、智、良知,这都是天理。

在脑海中不停地过这些画面,时间一久,心胸自是廓然大公,必有浩然之气贯注其中。个中妙不可言,只能是实践者才能知道。

大部分讲心学“静坐”的人,都在此留步。他们认为静坐无非就是这两个步骤,王阳明则认为,这两个步骤中必须要有两件武器保驾护航,否则,静坐要么成为枯禅,要么不如不坐。这两件武器就是“诚意”和“谨独”。

诚意,就是正念头,诚实地践行良知给你的答案,一个念头出现,良知自然知道好坏,好的保留,坏的去掉,这就是诚意。王阳明说,诚意就是“如好好色,如恶恶臭”。喜欢善如喜欢美色,厌恶恶如厌恶恶臭一样!

听上去简单,做起来实在难。比如一念虽知好坏,然不知不觉就流走了。我们知道不义之财是坏的,可有时候却经不住诱惑去取了。一旦取了,这就不是“好善恶恶”的心了。正是因为我们总不诚,所以王阳明才大力提倡“诚意”:

惟天下之大诚,能立天下之大本。

在静坐中,我们揪出一个私欲,马上就克掉它,这就是诚意;如果我们揪出一个私欲,却姑息它,甚至不想克掉它,这就不是诚意了。那我们的静坐也就失去了意义。

谨独就是慎独,原意是,即使自己一个人的时候也要注重自己的行为,严于自律,我们静坐时就是谨独时。在王阳明这里,谨独其实就是自我管理。

自我管理包含了诸多要素,王阳明说,静坐时只要把这些要素一一排列,就是谨独了。

第一是分析,我有什么私欲;第二是目标,我要通过什么手段克掉这些私欲;第三是信心,我要坚信自己能克掉这些私欲;第四是毅力,必须具备强大的意志力,一日不成就两日,两日不成就三日,不可半途而废;第五是心态,在克私欲的过程中保持良好的心态,不能为克而克,更不能想克掉私欲的目的,一旦有这种心态,就是新的私欲了;第六是学习,所谓学习只是通过各种手段光明自己的良知,以良知的巨大力量来帮助自己完成自我管理;第七是检验,当你确定自己把私欲克掉后,要去实践中检验;第八是反思,我为何会有这种私欲,这一私欲产生的基础是什么。你只有反思到位,才不会再犯同一错误。

如果在静坐过程中没有诚意和谨独,那不坐也罢。如果一个人不能通过静坐诚意和谨独,那他就无法光明良知,自然不能知行合一。这样的人就会失去自我,随波逐流,永不可能获取成功。

由上面的论述,我们可以确信学习阳明心学的关系链:立志—谨独—意诚—知行合一—良知。

意思是:我们先立个真切为善之志,专心致志于此,然后从谨独处下功夫,就是自我管理,久之自见意诚境界。只要你意诚了,自然会认识到知行合一的本意。认识到知行合一的本意,自然而然就悟到了自己的良知本体。悟到自己良知是怎么回事,天下事也就在我心中,在我股掌之间!

7. 任贤齐小雪深度解析?

1. 任贤齐小雪的关系可以说是比较复杂的。2. 这是因为任贤齐和小雪是在拍摄电影《狂舞派》时相识的,两人在电影中饰演情侣角色,因此产生了感情。然而,在电影拍摄结束后不久,两人就分手了。据报道,分手的原因可能是因为两人性格不合或者其他个人原因。3. 关于任贤齐小雪的深度解析,可以从他们的职业生涯、个人经历以及人际关系等方面展开。例如,可以探讨任贤齐和小雪在电影《狂舞派》中的表现,以及他们在分手后的发展和对彼此的评价等。此外,还可以对他们的感情经历进行分析,探讨他们的相似之处和差异之处,以及他们对彼此的影响和对感情的态度等。总之,任贤齐小雪的关系是一个有趣的话题,可以从多个角度进行深入的解析。

免责声明:本文作者:“游客”,版权归作者所有,观点仅代表作者本人。本站仅提供信息存储分享服务,不拥有所有权。信息贵在分享,如有侵权请联系ynstorm@foxmail.com,我们将在24小时内对侵权内容进行删除。
(185)
好游好爆下载(好游快爆怎么用)
上一篇 2023年11月30日
英语填字游戏(有文字互动游戏嘛)
下一篇 2023年11月30日

相关推荐

  • 侠盗猎车手3:罪恶都市(侠盗猎车罪恶都市之A2)

    W是升高、S是下降、小键盘9是前进、小键盘6是后退、小键盘4是左转弯、小键盘5是右转弯、小键盘0是投弹。...

    2023年11月23日
  • oracle收购bea(NET的主要技术是什么)

    WebServices是.NET的核心技术。Web是新一代的用户与应用交互的途径,XML是新一代的程序之间通讯的途径一样,WebServices是新一代的计算机与计算机之间一种通用的数据传输格式,可让不同运算系统更容易进行数据交换。WebSe...

    2023年11月23日
  • 牛牛牌游戏下载(斗牛app是什么)

    斗牛是一款地方性、游戏速度极快、考验参与者心理,非常刺激的棋牌游戏,主要流行在湖南、广东、广西、浙江、北京地区。游戏可以由2人到6人同时进行,总共52张牌(除大小王),在确定庄家后,系统将给予玩家每人5张牌,用户将根据5张牌进行排列组合,并且...

    2023年11月28日
  • 茶圣蚂蚁庄园(在武汉附近的城市旅游)

    黄冈市:大别山(内有多个景点),三角市国家森林公园,李时珍医道文化旅游区,红安烈士陵园,李先念故居纪念园,五脑山,红安天台山,桃花冲森林公园,龟峰山,吴家山森林公园,...

    2023年12月01日
  • 迅雷精简版(苦力王的篮球视频能下载到电脑吗)

    可以呀,有好几种办法,有专门的网页视频下载工具,还有在缓冲区找到该视频复制出来,还有用迅雷精简版也可以的...

    2023年12月01日
  • 雨林木风ghost xp sp3 纯净版(u启动装机版教程怎么用)

    制作一个装机版u启动u盘启动盘;下载一个雨林木风ghostxpsp3装机版系统镜像文件,拷贝到u盘启动盘中,开始安装:...

    2023年12月02日
  • grid 设置(notgrid怎么设置)

    notgrid可以通过在CSS中设置display:grid来实现。在父元素中设置display:grid后,可以使用grid-template-rows和grid-template-columns来定义网格的行和列。...

    2023年12月03日
  • 同花顺金融分析平台(同花顺的评星评级怎么用)

    股票评级为软件新增功能之一,股票星级评定是由杭州核新软件技术有限公司同花顺金融中心提供。通过深入分析中国A股市场的上市公司,运用国际先进的数量研究模型,对公司的基本面、公司的市场表现,公司投资价值以及公司的风险综合评估进行评级。主要参考采用的...

    2023年12月03日
  • 腾讯tm下载(大家一般在哪下载素材啊)

    作为一名资深抖音运营及自媒体爱好者,非常理解题主的心情,在剪了上1000条片子之后那么今天帮大家整理了五个视频素材网站,国内国外的都有,部分是免费的,大家在使用前记得看清楚.1、摄图网国内的话也有不少不错的视频素材网站,例如摄图网,这个网站上...

    2023年12月04日
  • 淘宝浏览器(qq浏览器淘宝登录不上去了)

    1、登录不了的一个原因是你的帐号和密码错误,当然就登录不了,又或者是你的帐号密码被盗,可以通过”找回密码“的方式重新设置密码,最好是复杂一点;...

    2023年12月11日
返回顶部