重庆胖猫事件:一场金钱与情感的悲剧💔

我对重庆胖猫事件的看法

首先,给不了解事情经过的人说一下大概情况。

简单来说就是一个21岁的王者荣耀代练,在可能是YY的语音软件里认识了女主,随后开始网恋。

在交往期间男主给女主总计转了51W的钱,两人约定去女主所在的重庆奔现,原本的计划是男主到了后住女主家,结果到了当地后男主被要求自己租个出租屋住,男主接受了这一点。

女主早在23年就已经表示过对男主的厌倦,并且短暂分手过,但还是舍不得活体ATM才继续保持着关系。今年3月女主或许是彻底对男主失去了兴趣,开始无视男主,男主用尽了手段企图挽回但无果,于是在给女主转了6.6W后跳江。

其实如果故事只到这的话那还没什么,令围观群众感到震惊的是,男主并非什么有钱人,相反他的出租屋内几乎没有什么家具,甚至连被子都没有,外卖点的也都是10块钱左右的生命体征维持餐。

最后时刻,男主说自己打代练打血了,可自己甚至都没钱看病,下辈子不想吃十块钱的外面了,想吃麦当劳。

听着很震惊,但要我说这属于是国服版本有点落后了,在昭和时代的日本这都算不上新闻,更别说是全国性的新闻了。而且哪怕到了现在,为了男公关或者陪酒女榨干自己,甚至为了去见男公关一面而卖身,都是再常见不过的了,类似的故事我听得耳朵都快起茧了。

接下来我会对这一事件进行评论,我有预感这可能会是我发过的所有帖子里赞同率最低的一篇,甚至有可能根本就过不了审。

首先我很佩服男主的意志力,一把代练据说单价为20元,虽然我几乎没有玩过农药但是其游戏时间怎么说也得有个20分钟,为了打满51W,至少得打个2.5万场游戏,男主花在这上面的时间可想而知,这充分说明了男主的意志力有多强,也侧面说明了男主究竟在女主上究竟陷的有多深。

很多人说女主对男主的行为是诈骗,但说实话我完全不认为这一事件和诈骗有任何关系,纯粹是一个愿挨一个愿打。

根据我所能看到的聊天记录,女主向男主要钱的方式基本上就是我有什么什么需求,能不能给我多少钱。如果我没有理解错误的话,这就是向亲朋好友要钱的正常话术吧?女主并没有说我有某某某计划你投资个多少我就能给你多少回报,而是直白地伸手要钱,这无论如何构不成诈骗吧?毕竟女主说自己要开店需要多少多少钱,后面貌似也真的开了。

所以从法律上,我实在是找不到什么角度去指责女主,那我们来搞道德批判?

我在这个地方发的第一篇长文,其主旨就是在反对所谓“道德”,以及猎巫式的道德批判,所以我自然是不可能去道德批判女主的。

有人为了找到地方攻击,甚至都挖出了女主在其他地方的发言,指责她和其他女恋人奔现了,我说这种道德批判还是少来点吧?你证明了女主出轨能怎么样呢?把她关进大牢?

所以呢,我一点没有指责女主的意思。各位不妨问问自己,假如有一个如此极致的异性舔狗,你每个月能从ta身上提个一两万出来,那你会不会像女主那样做?我想各位知道答案,反正我是没有自信说我不会这么做的。我们能做到的估计也就是比女主好那么一点罢了,无非是五十步和百步的区别。

接下来,我会把批判的重点放在男主上。

很多人可能会表示不解进而愤怒,为什么我不批判加害者,反而去批判受害者。

首先,我对这一事件的认识只是事件,而不是什么悲剧,更不是什么刑事案件,理由上面也说了,一个愿挨一个愿打。既然只是一个事件,那何来加害者或者受害者呢?

可能有人会认为我是女权主义者,是在给女主洗白,但要我说我充其量算是个理中客,毕竟我既厌女又反激进和极端女权,看到这种事发生我就一个感觉——女权离灭亡又近了一步。

我不批判女主,完全是因为我实在找不到点去批判了。她都已经这样了,你为什么不顺从着她点呢?

我认为,这个世界对于所有人来说,都是困难模式,不管是流浪汉,还是大富豪,无一例外。为了在如此残酷的世界中活下来,每个人都需要自己的精神支柱,一旦这个精神支柱倒塌了,人类就无法面对现实的冲击,轻则自暴自弃重则直接自杀,所以每个人都会不惜一切代价去守护自己的精神支柱。

影视作品里的角色为了家人而牺牲自己,瘾君子为了吸毒而砸锅卖铁,风俗女为了见男公关一面不惜卖身,其本质都是在守护自己的精神支柱。

在理解了这一点后,我们再回去看男主的行为,就不会觉得奇怪了,他的行为本质上也是在不惜代价地守护自己的精神支柱女主,或者说与女主之间的联系。

正常人的精神支柱不只一根,家人算一根,恋人算一根,金钱算一根,工作算一根,这些精神支柱各自有不同的占比,被推倒后造成的伤害也不同。

而男主为了女主甚至单身飞到了重庆,和家人之间的联系也近乎中断,每天窝在出租屋里吃着10块钱的外卖无休无止地搓玻璃,不难想象,他的精神支柱只剩下女主一根了。所以女主提出分手,开始无视男主,就相当于是摧毁了男主心中唯一的精神支柱,那男主所能做出的选择自然也就只有跳江了。

所以我首先要说男主蠢,把精神支柱缩减到一根也就算了,结果这根精神支柱的控制权还不在自己手里,为了维持这个精神支柱还得付出巨大的代价,说句不好听的如果男主最后的下场不是跳江我才觉得奇怪。

其次,我要批评男主哄抬*价。各位有没有想过,为什么女权能够如此横行?其根本原因,不就是择偶权掌握在女人手里,女人哪怕不对男人付出任何东西,只要随便回两下消息就能有一堆男人过来跪舔吗?

用个不好听的比喻就是女人是卖方,男人是买方,而因为舔狗的哄抬*价,导致现在的市场是卖方市场,卖方市场那卖方自然是想怎么定价怎么定价,你嫌贵有的是人买!

只要男人还是被自己的下半身所支配思考,只要还有像男主这样的舔狗大量存在,那么在可预期的未来,男女平等就是个笑话,所以在这一点上我要批评男主。

说到这里有人可能会摆出什么“死者为大”来谴责我了,说实话我觉得挺搞笑,毕竟大伙平时张口闭口都是腊肉腊肉的,谁也没资格说谁吧?要是人死了就不允许批评那我今天去跳个江各位是不是只能对我的过往发言唱赞歌了?

而且,男主真的是所谓PUA的“受害者”吗?男主难道真的愚蠢到了无法理解自己和女主的联系是建立在金钱上的,而非女主真的喜欢他吗?换个问题,难道那些去公关俱乐部的人真的认为男公关或者陪酒女是因为喜欢自己才尽对自己说好话吗?我想这世界上找不出几个真的这么天真的人吧?

所以我有充分的理由认为,男主完全理解了自己和女主的关系就是建立在金钱上的,而且他本人也接受了这一点,特别是他在最后关头给女主买了七百多块钱的花,还给女主转了6.6W。他在进行最后的尝试时所依靠的依然是金钱,就足说明他本人对这段关系究竟是一个什么看法。

比较有意思的一点是,这件事在墙内已经成了个大新闻,导致很多人纷纷点外卖到他跳下去的那座桥上,就像去年强子去世一样,甚至有反贼混在其中呼吁大家一起点外卖送过去。

相关的报道已经很多了,想看聊天记录截图的可以自己找。

你对重庆胖猫事件有什么看法?欢迎在评论区留言讨论💬。

 #重庆胖猫事件 #情感 #金钱 #社会

如何使用ChatGPT学会一切知识

如何使用 ChatGPT 原理学会一切知识?读Wolfram 大神的神书《这就是 ChatGPT》之后的读书笔记 读了李沐大神的《使用随机梯度下降来优化人生》,忍不住拍大腿。加上前面推荐了wolfram 大神的神书《这就是 ChatGPT》,于是觉得有必要写点类似读书笔记或书评的东西。

李沐的文章写于ChatGPT 之前,是结合随机梯度下降来讲人生道理的,我这篇准备从ChatGPT 原理出发,聊一聊 GPT对人类学习、构建个人知识体系的启发。以此文致敬两位大神。Image 1: 🫡

李沐的文章微言大义,只用了 1100 字。我对GPT原理的认识有限,所以写了5000字,请大家多多指正。

1 首先要有目标 所有机器学习,一定得有个目标函数。人类的学习也是如此,学习之前,目标先行。 目标函数,也叫成本函数,损失函数。模型训练的目标就是让损失函数最小化。人类学习,也是要不断接近自己的学习目标。

2 学习目标要大 GPT模型的训练目标,是用一个巨大的神经网络去模拟互联网上的所有人类语言文本,让损失函数最小化。目标基本达成,GPT把基本上全部的人类知识压缩进了万亿参数的单一模型,实现了通用认知任务上的卓越表现。 GPT的学习目标不可谓不大。 人类学习也是如此。目标不能太小,你的学习不是为了通过某次考试,取得某个分数。在我看来,人的学习应当以构建个人知识体系为学习目标。 在你在外,人类知识体系(body of knowledge)是一种客观存在,wikipedia 和书籍等都是对人类知识体系的一种整理和构建的实践,我称之为bok1。在你之内,你的脑子里应该有一个自己的个人知识体系,关于一个或多个学科或领域,我称之为 bok2。 个人学习的目标,是缩小bok2和bok1之间的差距,形成你自己的更全面更扎实更强大的bok2。 为什么学习目标要足够大?神经网络训练的实践有一个发现:参数越多,成本函数最小化越容易。正因为这个规律,用神经网络解决复杂问题比解决简单问题更容易。所以,AI 现在可以写作编程绘画,但是还没法在餐馆端盘子。 人类学习也是如此。目标足够大,进步才可能足够大,走的才能足够远。

3 从实例中学习 机器靠样例学习(learn from examples),从数据中学习,而非通过规则学习(符号AI路线已经破产多年)。机器通过大量的大量的数据来学习到数据中蕴含的模式和规律,就好像从大豆中压榨出其中丰富的油脂。 人类也应当从实例中学习。一本书,一篇文章,一个知识视频,一次演讲录像,一次面对面交谈,都是你学习的来源。从实例中,你学到丰富的、鲜活的、有意义的知识。

4 用高质量信息作为学习数据 Garbage in,garbage out。这是机器学习的第一性原理。如果数据本身不富含意义,哪怕训练数据再多,可能训练出来的大模型也无法实现高级的智能,甚至还会从垃圾材料中学到满嘴脏话。GPT的训练数据集是精心挑选的高质量数据,包括 Wikipedia、书籍、论文、代码以及高质量的互联网文本。 所以,人类的学习是不是也要尽可能用高质量信息作为学习数据?在一头扎进某本垃圾教科书之前,先精心设计你的学习数据集。对于任何主题,我通过什么小册子轻松上手登堂入室?通过大师的那本科普书获得大图景(big picture)?哪几本教科书才是全国范围内最好的教科书?有那些知识视频让我更直观更好的理解这个主题?有什么工具能让抽象复杂的知识变得具体而清晰? 学习是从数据中体验意义的过程。只有通过高质量的文章、书籍、视频、课程、网站和工具,才能高效提炼出真正的知识。

5 从错误中学习 在GPT模型的预训练过程中,数据依次通过神经网络的各层,最终生成下一个token。token的预测值和实际值之间的差异,这是模型的误差(error)。error = diff(预测值, 实际值)。 GPT就是通过error来学习,把误差用反向传播的方法反馈回去,调整模型参数,降低损失函数。 预测下一个 token => 得出error => 反向传播 => 梯度下降 => 调整参数 => 预测下一个 token GPT 只能通过误差来学习,人也是如此,只能从错误中学习到东西。错误和不足,是反馈的重要来源,也是最好的来源。 然而,人是追求奖励逃避惩罚的动物。教育的规训让人追求正确,回避错误。在孩子身上尤其明显,孩子会觉得错误不好,正确才好,一直正确一直好(直到ta迎来必然到来的重大挫折)。 我们可以认识到这个思维陷阱并尽量避免:虽然错误让人痛苦,但错误是唯一的学习来源。只有通过错误,人才能学到点什么东西。

6 唯有学习才能改变自己 GPT模型的训练过程,就是不断调整模型的过程,训练的每一步都在改变模型参数,改变模型本身的连接配置。 人的学习也还如此。每一次费曼,都得到你当前的理解与费曼式理解之间的差距,根据这个差距来调整,查资料,加深理解,再一次费曼。 每一次学习,都在改变你的大脑。不是比喻意义上的改变,而是字面意义上的改变,在生物和物质层面的改变:短时记忆就是大脑突触之间神经递质增加释放,长时记忆就是基因表达蛋白质合成折叠,形成新的突触连接。经过充分学习训练的大脑,在结构上不学习的大脑是截然不同的。之间的区别,类似于大脑和脑花之间的区别。 学习改变了大脑,改变了你,字面意义上的改变。

7 把阅读作为学习方法 GPT的学习,是使用上百万GPU时间做一件事:阅读,阅读整个互联网,阅读几乎所有人类的语言文本。这个阅读过程被被称为“预训练”,而GPT的阅读,只在做一件事:预测下一个token。而 GPT 的阅读量,是上万亿个 token。 人类的学习,也应该把阅读作为主要方法。scaling law对 GPT 适用,对人类神经网络也同样适用。人大附中早培班要求六年级小学生每年阅读五百万字,约 50 本书。个人认为这是保底要求。人类学习者,需要首先成为一个贪婪的阅读者:一年五十本书。每天至少阅读一小时。 没有预训练,GPT 无法学习;没有阅读,人类无法学习。

8 把费曼作为理解方法 GPT的理解,是在万亿维度的意义空间,用注意力机制,在数百层神经网络中,通过上万次的矩阵向量乘法来加工处理文本转化成的数字向量。 text => token => generic embedding => embedding 2 => embedding x => final refined embedding => list of probabilities => next token 对于一个token,GPT用它的上下文来不断关联,提取特征,调整这个向量在语言意义空间中的位置,形成富含意义的、更准确的理解。 人类的理解,也是把知识砖块和它的上下文不断建立丰富的、有意义的关联。最好的理解方法就是费曼技巧。首先费曼知识砖块,然后不断费曼知识砖块之间的关联。通过清晰的概念以及概念之间的关联,人类形成自己的理解。 把阅读作为学习方法,把费曼作为理解方法,一个概念接着一个概念,一次费曼接着一次费曼。 而且,费曼技巧,就是人类的“预测下一个token”。费曼的实际结果与期待结果之间的差异,就是我们在具体实例学习中得到的 error。针对这个 error,计算梯度,沿着梯度前进一部,你就得到了改进。

9 把迭代作为进步方法 GPT模型是在万亿token的高质量数据上训练出来的,用反向传播来传递误差,用随机梯度下降来减少模型误差。每一个token的生成,都是神经网络中上亿神经元的一次激活,都是一次包含万亿参数在内计算。 人类的学习,每一次费曼都是一次对神经网络的调参过程。哪怕是对一个概念的理解和费曼,都不是一蹴而就的。费曼x3,任何一个概念都要至少费曼三遍。在有间隔的多次费曼中,你对一个概念的理解变得越发清晰。 这是一种迭代式的学习闭环。闭环,迭代,这是学习之要义。把迭代作为进步方法。

10 规模法则,大力出奇迹 GPT模型是遵循规模法则(scaling law)的,规模法则是当前AGI之路的关键方法。wolfram说,“足够大的神经网络当然无所不能”。 人类神经网络,是否遵循规模法则?海量知识砖块的积累,构建出越发庞大、多元的个人知识体系,是否能像 GPT 一样带领个体发展出更强大的智能水平?用简单的话说,人类的学习,是否是“大力出奇迹”,凡事都靠积累? 答案很可能是肯定的。

11 身为父母,减少人为干预 曾经,人类设计AI系统走的是规则路线(符号AI)。曾经,机器学习是需要人工建立特征的(有多少人工,才有多少智能),相当于人类工程师教机器学习。现在,深度学习是端到端的,不用人为的特征工程。AI科学家们发现,学会放手,让神经网络做尽可能多的事情,让神经网络自己学习。学会放手,结果惊人。 身为人类父母,是不是也应该减少人为的、低水平的干预?大部分父母自己不是学习专家,不懂学习原理,强行扮演教育家是不是反而伤害了孩子的学习?是不是父母们也应该学会放手,不要瞎设计瞎教学? 孩子的大脑就像一个等待训练的 GPT模型,与其自上而下去指导教学,不如每天陪着孩子读半小时书,像一个朋友一样,让孩子快乐地享受伟大的预训练过程(阅读)。每天晚饭后,孩子做作业,大人在旁边读书学习。作业完成后,一起快乐共读,一起谈天说地。学会放手,生活更美好,学习更有效。

12 注意力是最贵的 GPT的T,是transformer架构。而transformer的精髓在于其用算法实现了类似人类的注意力机制,从而让模型在阅读文本时针对文本序列的不同部分给与不同程度的关注。 GPT的学习,是注意力分配的艺术。 人类的学习,也是注意力分配的艺术。当你阅读,你在不同内容上分配不同程度的注意力,关注概念之间的关联。 而且,整个有效学习的前提,是你能在学习这件事上建立并维持你的注意力。注意力的质量,决定学习的质量。 然而,你的注意力,是很多厂商虎视眈眈的猎物,10 亿短视频用户每天刷 150 分钟短视频,人们的注意力模式每天都在被短视频算法疯狂训练,训练到最后,一篇长文章都读不下去,更不要说严肃的书籍读物。 机器在学习,人类在沉迷。机器通过注意力机制实现了更强大的认知能力。而人类的注意力却愈发稀缺和脆弱。短视频是免费的,但是,注意力却是最贵的。

13 预训练之外的后训练 在让GPT模型阅读完互联网文本之后,OpenAI的科学家们还做了重要的一步:让人类积极地与GPT互动,并且在“如何称为一个更好的LLM助手”方面给与实际反馈。 是的,GPT模型的训练,除了预训练之外,还有后训练:微调(finetuning),奖励建模(reward modeling)和RLHF(基于人类反馈的强化学习)。预训练占比95%,是绝对大头;后训练强调少而精,事半功倍。 人类学习也是如此。除了海量阅读作为预训练,还需要后训练作为补充。 对海量阅读的孩子进行考试元技能的微调,只做了 8 套真题,8 岁儿童就能通过 FCE 考试。而对孩子的三观培养,家庭的家风建设,则类似于 GPT 模型中的奖励建模。为人父母,我们最重要的角色就是正反馈父母,不要学上“老中”的毛病,不过脑子,什么话难听说什么。只要做好正反馈,每个孩子都能培养出强大的澎湃的学习内驱力。

14 语言就是思维本身 人类语言,以及语言生成所涉及的思维过程,一直被视为复杂性的巅峰。而ChatGPT的成功给我们一个启示:在某种程度上,似乎人类语言的所有丰富性,以及人类能用语言谈论的所有事物,都可以被封装进一个有限的系统。 语言,在根本上,似乎比它看起来简单。ChatGPT 则成功捕捉到了人类语言的“本质”和背后的思维方式。ChatGPT 在训练过程中,隐含地发现了人类语言的语法规则,并且很擅长遵守这些规则。人类语言中丰富的语义信息,也被 GPT 通过向量空间中无数次的矩阵计算成功提取出来,存储为万亿参数构成的神经网络连接。通过掌握人类语言,GPT 还建立了某种意义上的世界模型。 人类学习也不应轻视语言,把语言视作普通的一个科目,分值有限,在高考中拉不开差距。不宜把口头的语言表达视作非核心技能,不宜把书面语言的写作技能视作非核心技能。每一个终身学习者,都应该足够重视语言,重视演讲作为核心技能,重视写作作为核心技能。

15 学习,快与慢的艺术 机器学习的快慢由一个超参数决定:学习率 learning rate,这是模型在梯度下降时的步子长短。步子太大,可能无法实现模型损失函数的最小化。步子太小,梯度下降太慢,效率太低。神经网络的训练中,合适的学习率是只能在实践中摸索出来的,只能来自经验。 人类学习也是如此。步子太大,看起来学的快了,但是理解浅,遗漏多。突击可以让你在考试中蒙混过关,但在实际应用中需要支付更高的代价。步子太小,龟速爬行,学起来会没劲。在快速学习和深度学习之间平衡,是学习的艺术。 而掌握这么艺术的最佳方式,是构建自己的知识树。以知识树为目标的学习,在快与慢之间最容易取得平衡:前期快速搭建框架,快速建立大局观,获得正反馈;然后慢慢微调,一个概念接着一个概念,看起来慢,但实现了更好的快。

16 学习,没有人出生在罗马 有人煽动起跑线焦虑,说什么“有的人出生在罗马”。在财富和权力层面可能对,但在学习这件事上,众生平等,没有人的家住在罗马。哪怕是马斯克的孩子,也得自己亲自预训练自己的神经网络,也得自己逼近学习目标,而且没有捷径。 机器学习也有起点和终点。起点是初始化的随机参数,终点是高维空间中损失函数最小的点。GPT模型的学习,就是在万亿维度的意义空间中找到这个最低点。 LLM们的学习都是后天的,难道ChatGPT比文心一言聪明是因为它出生在罗马?学习就是在万亿维度的意义空间趋近自己的目标函数,所有学习者的起点都是一样的,没有人生在终点,没有人家在罗马。

17 学习,每个人有自己的时区 有人煽动学习焦虑,像把大活人变成竹节虫,让人生布满“节点”: “婴儿英语启蒙要抓住关键节点”,“三年级真的至关重要” ,“大二是最关键的一年”,“人生最关键的节点是35岁”……多少岁毕业,多少岁买房,多少岁结婚,多少岁生子,多少岁财富自由…… 这个“社会时钟”妄图规定出一个人生的“标准时间”,规定了人们在不同的阶段要完成相应的 KPI。在“社会时钟”下,很多人在疲于奔命地过一种“打卡人生”。 但是,GPT的学习,是万亿维度的意义空间的旅程。每一条梯度下降的路线,都是逼近目标函数的路线,没有一个固定的、正确的路线。 人的学习也是如此。我们不需要一个“社会时钟”来规定你是迟到了还是来不及了。娃 6 岁了还没学 scratch,是不是晚了?孩子已经初中了,英语词汇量才 500,是不是来不及了?我三十多岁了,才开始学 python,丢不丢人? 每个学习者都有自己的时区,按照自己的节奏,走在终身学习终身成长的道路上。芒格曾经说过,我今年学习了做 PPT,我这 90 多岁的老狗还能学会新技能,你们年轻人还担心什么。 只要你还在学习,还在往前走,就无所谓早晚。每个人都是独一无二的,每个人对自己的路线拥有主导权和解释权。横向比较是愚蠢且没必要的。

18 学习,简洁是更高级的复杂 机器学习的早期,人们认为应该在神经网络中使用各种复杂的独立组件,从而让神经网络“显式地实现特定的算法思想”。GPT之后,人们发现,更好的方式是使用非常简单的组件,让它们“自我组织”,反而能更好地实现算法思想。 ChatGPT原理的一大启示:最强大的智能,并非通过复杂部件的堆砌,反而来自结构简单的无数计算元素的组合,以及朴实无华的scaling law。 最复杂的神经网络,由最简单的基本结构组成。人类的学习也是如此。不要迷信复杂的工具和技巧,大道至简,简单最好。 最庞大的知识体系,也不过是由一系列简单的事实性知识、概念、模型组合而成,而学习这些概念的方法本身也是简单而非复杂的,朴实而非深奥的。 — 这些,就是 ChatGPT 教给我关于学习的道理。

URL Source: https://twitter.com/howie_serious/status/1784527346223223177?s=52

test 一步到位:用 n8n 和 Zapier 实现 Ghost 文章自动推送到 Telegram 并同步到 Twitter

Title: 一步到位:用 n8n 和 Zapier 实现 Ghost 文章自动推送到 Telegram 并同步到 Twitter

URL Source: https://www.jungley.net/ghost-to-telegram-and-twitter/

Published Time: 2023-03-17T14:51:35.000Z

Markdown Content:
本篇博客将教你如何使用 n8n 将 Ghost 博客文章自动推送到 Telegram 频道,再通过 Zapier 同步到 Twitter,让你的文章更广泛地传播。

Image 1: 一步到位:用 n8n 和 Zapier 实现 Ghost 文章自动推送到 Telegram 并同步到 Twitter

Photo by Samsung UK / Unsplash

一、前言

作为一名博主,你可能想要将你的文章分享给更多的读者。借助 n8n 和 Zapier,你可以轻松地实现从 Ghost 到 Telegram 再到 Twitter 的自动化文章推送。本篇博客将指导你完成这一过程。

二、准备工作

在开始之前,请确保你已经拥有以下几个账户:

  1. Ghost 博客账户
  2. Telegram 频道
  3. Zapier 账户
  4. Twitter 账户

三、使用 n8n 将 Ghost 文章推送到 Telegram

步骤1:安装和配置 n8n

首先,你需要安装 n8n。可以通过 Docker 或者 npm 安装。按照 n8n 的官方文档 完成安装和配置。

步骤2:创建 n8n 工作流程

Image 2: a screen shot of a payment page

Ghost create n8n integration

  1. 打开 n8n 的 Web 界面。
  2. 点击左上角的 “+” 按钮新建一个工作流程。
  3. 在 “Nodes” 面板中搜索 “Ghost”,将其拖放到工作流程编辑区域。
  4. 配置 Ghost 节点:填写你的 Ghost 博客 URL 和 API 密钥。API 密钥可以在你的 Ghost 后台中找到。
  5. 在 “Nodes” 面板中搜索 “Telegram”,将其拖放到工作流程编辑区域。
  6. 配置 Telegram 节点:填写你的 Telegram Bot Token 和频道 ID。关于如何创建 Telegram Bot 和获取 Token,请参考 Telegram Bot 文档
  7. 将 Ghost 节点和 Telegram 节点连接起来。
  8. 保存并激活工作流程。

现在,当你在 Ghost 发布新文章时,它会自动推送到你的 Telegram 频道。

四、利用 Zapier 将文章同步到 Twitter

如下图,我用的免费版,100task/month, 基本上够用了。至于说为什么不直接用n8n呢,因为现在限制了API的调用,开发者账号很难申请到。而Zapier已经内置了,只需要授权就行。

Image 3: a screen shot of the jigger app

步骤1:创建一个 Zap

  1. 登录你的 Zapier 账户,点击 “Make a Zap”。
  2. 在 “Choose App & Event” 中搜索 “RSS”,选择 “RSS by Zapier”。
  3. 选择 “New Item in Feed” 作为触发器事件,然后点击 “Continue”。
  4. 输入你的 Ghost 博客的 RSS 源 URL,点击 “Continue”。

步骤2:设置 Twitter 动作

  1. 在 “Choose App & Event” 中搜索 “Twitter”,选择 “Twitter by Zapier”。
  2. 选择 “Create Tweet” 作为动作事件,然后点击 “Continue”。
  3. 连接你的 Twitter 账户并授权 Zapier 访问权限。完成后,点击 “Continue”。
  4. 在 “Set up action” 部分,配置你的推文内容。可以使用来自 RSS 源的动态字段,例如文章标题、链接等。
  5. 点击 “Continue”,然后在 “Test & Review” 阶段检查你的设置是否正确。
  6. 最后,点击 “Turn on Zap” 激活你的 Zap。

至此,你已经成功设置了将 Ghost 博客文章自动推送到 Telegram 频道,并通过 Zapier 同步到 Twitter 的工作流程。现在,每当你在 Ghost 发布新文章时,它会自动出现在你的 Telegram 频道和 Twitter 账户上,让更多的读者能够看到你的作品。

美驻华大使馆对其微博评论不能及时显示表示不满

美国驻中国大使馆3月1日在其在新浪微博的官方页面发文说,对在中国的社交媒体账号下“评论内容未能及时显示感到不满。”

美驻华大使馆强调,其微博账号没有启用过滤评论功能,并表示:“网民对我们最近发布的内容进行评论时,或发现评论显示有所延迟。我们认为讨论、辩论和批评很重要。”

有关对美驻华大使馆对其微博评论显示不畅的抗议,中国驻美国大使馆发言人星期五(3月1日)通过电子邮件对美国之音说:“不了解有关情况。请向中国社交媒体主管部门询问。”

由于正处周末非工作时间,中国中央网信办的联系电话无人接听。

https://www.reddit.com/r/China_irl/s/7y0kOn7QSZ