官方服务微信:dat818 购买与出租对接

5年个人站长亲授!获取知乎流量的正确姿势+实操细节

4万

主题

2

回帖

12万

积分

管理员

积分
124093
发表于 昨天 09:46 | 显示全部楼层 |阅读模式
    那位朋友,您好,本人从事个人网站运营五年有余,目前正投身创业事业,接下来我将通过一篇五千字的详细文章,向您阐述获取知乎平台用户注意力的有效方法,包含清晰的思路和具体的操作步骤,确保理论与实践完美结合,内容全是精华,信息量极大,请您耐心阅读

    根据我本地数据的不完全统计(知乎百度top3关键词)

    百度PC端关键词总流量为:1亿2743万

    知乎实际获得的流量总计是一亿二千七百四十三万,乘以百分之十五的平均点击率,得出的结果是十九百一十一万。

    这只是单看PC端,一个超过2000W的流量机会摆在我们面前

    要想通过网络赚取收益,首要任务是吸引访问量,当前这种关注度非常难得,其价值甚至超过了黄金

    实际情况是,我的朋友中已有五六个,在最近半年期间,借助这个时机,各自赚取了六万到二十五万不等的钱款

    而我们只需要一双勤劳的双手和一个思维清晰的大脑

    那么

    为什么会有这个流量机会?

    流量机会具体指的是什么?

    我们如何从中获取流量?

    下面,让我来为你打开这扇流量的大门

    阅读指南:与市面上流行的各类“快节奏作品”不同,本文遵循个人真实想法,采用顺叙手法描述“从无到有的全过程”,读者需边看边琢磨,最好一次性投入完整时段(十分钟到二十分钟)来阅读

    1. 资本的游戏

    在“江湖”上流传着这么一段话,大致内容是:

    站长收割机,流量截胡高手百度daddy于2019年8月参与投资知乎,快手率先行动,接着,百度提升对知乎的支持力度,流量数据持续向好

    那时我瞧见这段话,对所领受的资讯感到困惑,缘何如此,实在令人不解。

    熟悉传播学的朋友应该知道一条基本原则:

    对于任何事情,我们要尽量关注事实判断,而非价值判断

    事实认定十分明确,容易形成一致意见;至于价值评估,则受个人观点和立场影响,往往存在不同理解

    这里的投资事件为事实描述,后面产生的影响为价值描述

    但是这件事情本身,在网络上出现了许多不同说法,有的把时间弄错,有的把出资人弄错,等等。

    核实之后,还会了解到百度曾经向快手注资,或许这另辟蹊径是个契机?

    有时候思路就是根据事实发散出来

    那么关于价值判断,是不是真的有流量增长?是不是真提权?

    立即用数据来核实,以2019年8月作为投资时间节点,选取爱站过去半年的数据作为样本,即使存在一些出入,也基本不影响结果,

    词量数据

    通过词量数据我们可以观察到以下2点:

    自2019年11月中段起,访问量呈现骤增态势,数据总量由三十万激增至二百七十万,增幅高达九成。

    从2020年7月开始,流量增长放缓,但仍保持增长趋势

    那么,这些流量是以何种方式增长的?

    收录数据

    通过收录数据我们可以观察到以下两点:

    尽管统计标准存在差异,不过当访问量出现骤增现象时,新增内容数量却保持稳定,这说明原有收录页面在相关检索词上的位置显著前移,地位确实得到提升

    收录的页面已经无法触达更多搜索词了,百度提供给知乎的定向流量即将触及极限,嗯~

    这种分析很容易让人觉得言不及义,因为分析所得跟最初获得的信息大体一致,我们的大脑难以应对重复的内容

    这恰恰是两个思维方式“归纳法”和“演绎法”的不同之处

    若不加以核实,推理过程预设了百度存在提权漏洞,进而后续所有步骤都建立在该前提之上

    推理过程的每一个环节都建立在对前提条件真实性的确认之上,设想一下,倘若推论结论出现偏差将会引发何种情况

    当今社会资讯泛滥,我们迫切需要具备辨别信息真伪的本领,而坚守个人见解尤为关键,不过独立思考并非意味着必须持有与众不同的看法。

    有效思考是必须建立在足够的知识积累之上,不然就是盲目思考

    如果身处陌生领域,学习同行仍然是不错的选择

    尽管访问量提升速度有所减缓,不过如此庞大的访问量平台并未完全吸收,眼下依然存在并且必定有契机,借此优势阶段来吸引访问量并且获利

    Let’s keep going !

    2. SEO?

    收录吗,排名吗,提权吗,如果你对此感到困惑,那么说明你对SEO这个范畴认识还不够深入,接下来简单说明一下

    搜索引擎优化,就是根据搜索引擎的规则,对网站进行修改,目的是提升在目标搜索平台上的位置,从而吸引更多访问者,增加网站流量

    收录:SE的爬虫系统抓取网页后,缓存在服务器上的行为

    权重:SE对站点的综合评分,排名的主要依据

    排名:页面缓存在搜索结果中的排列位置

    以上3点均为动态变化

    那么,一个搜索流量是如何产生的呢?

    用户首先键入查询内容,向搜索引擎发出检索指令,搜索引擎依据预设规则对已存储信息进行排序,随后将处理后的结果展示在客户端,用户浏览呈现的条目,并按个人倾向选择其中一项进行访问

    一个页面要获得访问量,必须首先被搜索引擎收录,接着要在搜索结果中占据前排位置,同时需要具备一定的搜索热度,并且标题和描述要能吸引点击。

    点击时知乎具备独特优势,凭借多年专注知识领域平台的发展,用户对其品牌形成了深厚信任,即便搜索结果未进入前三,该平台仍可能吸引比其他选项更高的点击量

    这次两方强强联手,百度为知乎输送精准用户,知乎则让用户转化率显著增强,真是相得益彰

    3. 蓝海问题 + 蓝海流量

    那么我们的机会在哪呢?

    宏宏最近手头紧,就到百度上查了“怎样快速赚钱”(真实数据,仅做示例),发现知乎有个页面排在首位

    接着手指稍有不慎按下了,目光落在空无一物的界面上,面容上出现了不易察觉的波动

    坑爹呢这是!

    5年的网赚经历给了我敏锐的嗅觉,这是机会

    我随后获取了价值百万的关键词清单以及知乎的相关信息,经过仔细挑选和深入研究,发现其中不少问题的页面虽然能够吸引搜索流量,却面临着若干困境:

    回答未解决搜索需求

    回答质量低

    回答少

    回答前N名赞少

    我们能否识别这类议题,自主生成内容,并争取获得优先展示,从而将流量导向我们个人的平台(例如微信或公众号)?

    答案是肯定的!

    总而言之,具备搜索量且竞争度不高的情况,我们整体称为“蓝海状况”,这些状况中产生的流量,我们整体称为“蓝海资源

    接下来要展示一个实例,各位可以先行感受一下,请注意搜索引擎结果会不断变化,实际查询时可能会有所不同,而且出于公开的考虑,这里挑选了一个特定的案例进行说明。

    爆炸性确认是关于同性恋的议题,该问题在电脑和手机平台上的排名均为第二位,手机端每月平均搜索次数达四十四万七千次,电脑端每月平均搜索次数为九万五千次,合计五十万次,位列第二的点击率大约为百分之二十,这表明该问题每月能吸引一百万的搜索引擎优化流量,而其中包含的回应内容又是什么情况呢?

    第1名只有58个赞,有机会上去吗?有!有方法变现吗?

    4. 突破认知局限

    部分听众或许在此刻就感到不耐烦,思绪开始转向各自领域内的具体实施步骤

    倘若你所处的行业缺乏有价值的潜在客户群体呢?为何必须选择自己擅长的范畴进行发展?

    流量高手的思维,从来都是大盘思维,即以全局的视野来思考问题

    现在,我们需要考察整个知乎的搜索量分布情况,找到那些有潜力的搜索区域,然后前往这些地方,而不是仅仅盯着某个具体问题或某个特定领域不放

    甚至知乎好物完全可以基于蓝海流量的思维

   


    始终记住我们的目的只有一个,那就是赚钱

    这同样是我创办【TACE】(ACE,流量高手)这个公众号的核心构思,只是后来忙于处理项目事务,导致发文变得稀少,唉……

    先前阐述了诸多观点,旨在阐明“道”的内涵,也就是实施这般行动的缘由;至于“法”,它本质上是僵化的,一旦规则发生更迭,相应手段便立刻失去效用

    以苹果公司为例,它刚起步时,电池的费用只有市场上同类产品的十分之一,创始人乔布斯是如何实现这一点的?

    那是因为他的方法论是“物理学思维”,将事物分解成最基础的部分来寻找解决途径,这个观点在TED演讲中有过阐述。

    但是,80%的人都喜欢直接得到方法,why?

    父亲提及,他听闻祖父的外祖父曾讲过,于数万年前,人类尚处狩猎时期,为求生存,始得演化出大脑

    人的大脑形成耗费了极漫长岁月,大约百万年,而人类出现的历史却短得多,仅二十万年间,这意味着我们目前依然在使用着远古时期的大脑结构

    那个所谓的“旧脑子”,一个很突出的特征就是最小用力法则,人天生倾向于选择耗费精力少的做法,就是能不动脑子就不动脑子,而理解道理则需要动用更多心智

    我,还有旁人,每当变得迟钝不思进取时,就会自嘲为蒙昧时代的居民,咳咳,真是这样。

    那么下面,就让我们一步步的进入“战场”

    5. 打造百万级词库

    词库是用户搜索词和词属性的集合

    我们努力汇集N个来源的核心词汇,由于每个来源或外部平台均存在其约束条件

    在精通流量的人看来,词汇库中存放的不是一个个的检索词,而是一沓沓的真金白银

    以搜索流量的视角来看,在大多数情况下,加词等于加流量

    你若能发掘到常人忽视的词汇,就能吸引旁人无法企及的关注,进而获取他人难以获得的收益

    对于数据保存方式,个人主张采用csv格式,选用逗号作为分隔符的本地文件进行存储,与mysql这类数据库相比,借助Bash shell进行查询和处理显得极为便捷

    拿词渠道:

    5118,爱站,站长之家。

    下面我用5118举例

    5.1 母词获取

    1)5118

    分别下载百度PC关键词和移动关键词,分开处理

    没有会员的朋友自行淘宝,有企业版的朋友建议全量导出

    接下来的步骤,我们会开始涉及一些编程知识:

    Bash shell(Linux) +

    此次数据计算的需求,常规工具已经无法满足,因此需要借助“神秘”的编程力量来处理

    我已全部完成个人工作,一些基础的Bash shell指令已直接在文本中呈现

    然而仅此一项就能令百分之八十的人望而却步,可即便是像我这样的人,又何尝不是从新手阶段逐渐积累经验过来的呢?

    编程其实并不复杂,相信我,如果能够,请对自己说那百分之二十

    务必牢记,我们无需成为技术精湛的编码人员,仅需具备能满足现阶段要求的编程水平即可

    2)初始处理

    进行字符集转换,将GBK格式编码改为UTF-8格式,这是由于5118提供的数据采用GBK编码方式,而Linux系统环境要求使用UTF-8编码。

    第三方数据精确度难以令人满意,以5118这种规模为例,每日更新量至少达1亿,成本因素十分突出

    前100名的结果由于数据精确度不高,需要后续自行核实信息,其次,之前提及的动态排序和百度特殊权限,在收集资料与核实信息期间,时间或许已经过去,期间排名或许已经调整。

    bash shell:

    使用cat命令读取输入文件,然后通过iconv工具转换编码格式,指定源编码为默认值,目标编码为utf-8,接着用grep命令过滤掉包含特定文本的行,这些文本包括整域百度PC关键词排名列表、百度指数以及数值大于100的内容,之后用awk命令以逗号为分隔符处理每一行,仅输出第一个字段,最后将结果写入输出文件

    3)关键词清理

    特殊符号

    s+.!?/_,$%^*()+”‘

    +|

    +——!,::。√?、~@#¥%……&*()“”《》~

    极易被忽略的一个环节,许多人无条件依赖各个平台提供的关键词统计信息(涵盖百度),然而“流量高手”这个词条的检索热度,和“流量高手,”这个词条的检索热度,两者之间有着天壤之别

    网址

    这个网址包含多个不同的后缀,例如com、cn、cc和top,此外还有net、org、rog、tv、info和wang等,还有一些特殊的后缀如club和vip。

    年份替换,例如2010年替换为2020年

    中文长度 >=2 (可选)

    4)去敏感词

    违禁词大家明白,咱们这边运用了DFA方法,单个词平均处理时间短于零点一秒

    5) 去重

    数据清洗是个关键环节,但需要大量存储空间,因此待处理的资料体量必须小于系统可分配的内存容量

    当前的处理方案是先借助split对目标文档进行分解,接着通过sort逐一进行排列,最后运用sort配合uniq完成合并并去除重复项

    虽然没有大幅减少内存使用大小,但提升了计算效率

    bash shell 简版:

    将文件名作为参数传递给 cat 命令,接着执行排序操作,然后进行唯一性筛选,最终将结果输出到以文件名命名的文件中

    bash shell 大数据版:

    这个脚本接受命令行参数,第一个参数是输入文件,第二个参数是输出文件当前目录路径等于脚本所在目录路径,并打印当前日期和时间

    .sh DEBUG INFO

    启动文档分割流程…,运用split命令,以$1为参数,按照${}分隔符执行分割操作,接着输出当前日期时间信息

    .sh DEBUG INFO

    启动独立排列,针对每一个文件,运用列表命令显示所有项目,并将结果输出到以该文件名命名的排序文件中,完成单项整理,然后对日期进行排序处理

    .sh DEBUG INFO

    启动整合并消除重复…”运用排序工具 ${} 对 *.sort 文件进行操作,结果输出至变量 $2,同时记录当前时间戳

    .sh DEBUG INFO

    删除缓存数据…”rm ${}//*

    使用方法:

    保存为以.sh为后缀名的文件,于所在文件夹内建立新目录,接着执行下列指令,允许为输入输出文档设定具体位置

    sh 脚本名称.sh 输入文件 输出文件

    OK,处理完成,我们获取了两个相当纯粹的初始词库,分别是来自知乎和百度台式机端的关键词,以及来自移动端的关键词

    5.2 词扩展

    词汇延伸是指针对已获取的源词进行拓展,由于一个页面或许会匹配到诸多关联性较强的检索词

    接下来可以推测,从其他渠道搜集到的词汇仅是他们所能搜集到的部分,而目前知乎平台能够匹配到的词汇只是其中的一个分支。

    需要广泛搜集相关领域的关键词,以便更精确地估算特定网页在百度上的访问量,同时还要参考其他来源的数据

    现有A与B两个议题,A涉及五十个词汇,总关注度达一万,B关联十个词汇,关注度为一百

    那么你可能将B问题忽略掉,只处理A问题

    可是,B问题实际上命中了100个关键词,流量为10W

    这种状况是因为资料存在缺失,引发了信息不对称,最终导致直接错失了利用这些渠道的可能性

    举个例子:

    这个页面扩充后,识别出47个关键词,来自PC和移动的总访问量达到132万,由于广告数量过多,知乎启动了内容管理措施并发布了警告,接下来是这些数据的呈现部分

    感觉如何,是否逐渐体会到信息的吸引力了?振作起来,继续努力前行!

    由于只做百度流量,下面只使用百度来扩展

    1)相关搜索 + 下拉框词抓取

    很多人只知道抓这两个渠道,并不知道这两个渠道的性质:

    相关搜索

    搜索结果向横向延伸,多数涉及跨主题的关联拓展,有时会出现议题显著偏离的状况,为确保关联度,仅获取一次信息

    下拉框

    下拉框为纵向扩展,大部分在关键词的结尾追加词缀

   


    说明渠道属性的重要性在于,所谓关键词这类文字信息,其延伸路径仅存在两种,其余所有拓展途径都是这两种核心路径的复合或变体

    由于各个平台生成的信息或许存在差异,因此必须将电脑版和手机版的初始词汇,各自在同一通道上进行延伸处理

    PC核心词带动PC相关检索,同时PC配套的筛选功能,移动核心词带动移动相关检索,并配合移动端的筛选工具

    2)百度推广后台词扩展

    操作流程是这样的:首先进行登记或者登陆,接着前往搜索广告部分,然后来到广告监管界面,再使用词语设计助手,最后确定目标词汇

    注册免费,另外你还可以使用艾奇SEM工具/斗牛SEO工具等

    3)词处理

    先将各个渠道的词分端口合并

    bash shell:

    将文件file1.txt和文件file2.txt的内容合并,然后输出到文件all.txt中

    然后重复【5.1母词获取】的关键词清理和去重部分

    5.3 获取关键词流量

    同样借助百度推广后台的关键词规划工具,不过运用的是“数据统计”这个模块

    这是百度公布的访问量统计,早前的统计标准是每日检索次数,近些年转变为每月检索次数,这样的调整并无影响

    部分人或许存有困惑,为何不先通过排序来挑选信息,以此降低后续处理信息的负担?

    关键词规划师单次可查询达一千个数量,十万关键词仅需查询一百回就能完成全部检索工作

    经过实际验证,单次获取能够持续过夜,并且有效登录时间能维持在十个小时以上,拜托,请一定温柔一点操作

    1)流量数据获取

    通过模拟登录的方式post关键词数据

    2)数据筛选

    每个端只保留搜索量 >= N的关键词(数值自定义)

    数据收集过程中可以实施过滤,或者单独设立过滤环节,个人倾向于采用后一种方式,倘若衡量标准不恰当,尚有再次过滤的机会

    bash shell:

    将文件内容通过管道传递给awk处理,以逗号为分隔符,筛选出第二列数值大于等于100的行,然后将结果输出到.txt文件中

    5.4 获取关键词排名

    分别获取各端的排名数据,只保留

    {问题ID}

    根据这个网址的特征,筛选出排名靠前的十个关键词,并记录下与这些问题相关的网址地址

    5.5 可获取流量

    关键词流量并不等于知乎问题页面能获取的实际流量

    先前说过,搜索流量在抵达页面时需经历一次点击环节,因此我们应当测算可获取流量,其计算方法如下:

    可获取流量 = 流量 X 点击率

    网站热度依据位次判定,不过百度好像从未公布过点击热度统计,唉…

    不过我们获得了一份于2020年7月14日公布的点击率资料,这份资料考察了八千多万个关键词,以及数十亿条搜索记录

    虽然只是移动端的统计,但并无大碍

    原文(英文):

    每项关键词的流量获取量核算完毕之后,我们的词汇库便构建完成了,!

    6. 知乎数据获取

    收集数据是为了,从这N个维度的信息里,能够初步评估某个事项的复杂程度,这属于9.1数据筛选的部分内容。

    数据在精不在多,过多的数据只会干扰判断

    问题浏览量

    问题关注量(知乎站内流量)

    问题创建时间

    回答数量

    第1名赞数量

    第1名回答字数

    第1名回答时间

    目前所有必要的基础资料已经收集齐全,你应该已经获取了包含百度和知乎信息的核心关键词文档,恭喜你完成了这项工作!

    如果你已经坚持到了这个阶段,我确信,我极乐意结识你这样的伙伴,彼此成为朋友^_^

    7. 数据分析

    7.1 关键词分组

    面对数量庞大且混乱的数据,我们应当借助关键词归类的方式,把关联性强的关键词和它们关联的页面进行整合,使它们集中到同一个区域

    1)jieba分词

    借助分词工具,将每个关键词拆解为N个基本单位,例如“流量高手”会被分解为“流量”和“高手”,含有相同基本单位的词被看作一类

    2)词项去重

    参考【5.1母词获取】的去重部分

    3)词项数据计算

    逐个核对各项内容与目标词汇的对应关系,统计符合要求的条目数目,同时累加由此产生的全部访问量

    从事搜索引擎优化工作的人或许会觉得有些眼熟,这种做法跟网络信息检索系统的“反向文件索引”如出一辙,我们本质上是以关键词为参照,将知乎上的网址进行分组整理

    下面随便拿点演示数据:

    7.2 人工分类

    依据字符串本身进行归类是一种直接方法,这种方式简单直接,却忽略了词语间的内在联系

    例如“买卖证券”与“证券交易”这两个概念同属于经济范畴,若按词汇分类则会分散成两个类别,因此最终需要人工复核

    分类完成后,将对应的词频和可获取流量总和相加,得到总数据

    然后用思维导图/表格的形式记录,下面用思维导图示例

    务必牢记,不可为了分类而分类,彼此缺乏明显关联的条目绝不能归入同一类别,否则只会徒增不必要的困扰

    8. 问题筛选

    8.1 数据筛选

    现在我们可以从流量最丰富的类别中挑选一个词,在【6-7】完成后的关键词文档里,借助Bash shell工具或Excel-csv文件,搜索“关键词”这一列,找出其中含有这个词的条目,接着通过指标进行筛选,这里提供几个筛选数据供参考

    问题浏览量(辅助)

    问题关注量(辅助)

    问题创建时间(辅助)

    回答数量  xxxx…..

    Stop!请立刻停止你的上头行为,我们还有最后一步

    9. 流量跟踪

    万里长征最后一步,非常重要,非常重要,非常重要

    我们前面提到2点:

    百度推广系统的关键词规划师功能里,数据统计周期为月份,提供的是预估流量数值

    SEO的网页排名是动态的

    这种情况或许会导致成果出现波动,费心费力整理了资料,用心撰写了内容,精心设置了排序,最终却收获不到应有的关注度?

    因此需要观察页面访问量的变化情况,以确认该页面是否获得了有效浏览,了解其吸引访问者的程度,从而决定是否需要处理这些问题

    监测周期能够选取日,如果需要更精密,可按每N个小时来划分,具体监测时间长度需要自行评估,通常来说,时间跨度越长,结果越精确。

    以某个问题为例,其能够获取的访问量是十五万,那么平均每日能获得的访问量大约是五千,那么三天(不计节假日)能获得的访问量总计是一万五千。

    统计此页面的访问次数,并与以往数据比较,只要增减幅度不大,便可以纳入我们的参考名单

    10.最后

    从全局营销的角度审视,可以明确蓝海流量开拓是所有营销活动的基础环节,后续工作包括搜索结果位置提升、用户访问路径优化以及收益转化等

    另有一些技巧方法,可助我们更佳运用蓝海资源,诸如信息叠加分析,高级策略运用等

    然而详细阐述之前提及的要点,涉及诸多内容,因受时间精力制约,我们待下次再行探讨
您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|关于我们

Copyright © 2001-2025, Tencent Cloud.    Powered by Discuz! X3.5    京ICP备20013102号-30

违法和不良信息举报电话:86-13718795856 举报邮箱:hwtx2020@163.com

GMT+8, 2025-9-1 06:17 , Processed in 0.084986 second(s), 17 queries .