|
那位朋友,您好,本人从事个人网站运营五年有余,目前正投身创业事业,接下来我将通过一篇五千字的详细文章,向您阐述获取知乎平台用户注意力的有效方法,包含清晰的思路和具体的操作步骤,确保理论与实践完美结合,内容全是精华,信息量极大,请您耐心阅读
根据我本地数据的不完全统计(知乎百度top3关键词)
百度PC端关键词总流量为:1亿2743万
知乎实际获得的流量总计是一亿二千七百四十三万,乘以百分之十五的平均点击率,得出的结果是十九百一十一万。
这只是单看PC端,一个超过2000W的流量机会摆在我们面前
要想通过网络赚取收益,首要任务是吸引访问量,当前这种关注度非常难得,其价值甚至超过了黄金
实际情况是,我的朋友中已有五六个,在最近半年期间,借助这个时机,各自赚取了六万到二十五万不等的钱款
而我们只需要一双勤劳的双手和一个思维清晰的大脑
那么
为什么会有这个流量机会?
流量机会具体指的是什么?
我们如何从中获取流量?
下面,让我来为你打开这扇流量的大门
阅读指南:与市面上流行的各类“快节奏作品”不同,本文遵循个人真实想法,采用顺叙手法描述“从无到有的全过程”,读者需边看边琢磨,最好一次性投入完整时段(十分钟到二十分钟)来阅读
1. 资本的游戏
在“江湖”上流传着这么一段话,大致内容是:
站长收割机,流量截胡高手百度daddy于2019年8月参与投资知乎,快手率先行动,接着,百度提升对知乎的支持力度,流量数据持续向好
那时我瞧见这段话,对所领受的资讯感到困惑,缘何如此,实在令人不解。
熟悉传播学的朋友应该知道一条基本原则:
对于任何事情,我们要尽量关注事实判断,而非价值判断
事实认定十分明确,容易形成一致意见;至于价值评估,则受个人观点和立场影响,往往存在不同理解
这里的投资事件为事实描述,后面产生的影响为价值描述
但是这件事情本身,在网络上出现了许多不同说法,有的把时间弄错,有的把出资人弄错,等等。
核实之后,还会了解到百度曾经向快手注资,或许这另辟蹊径是个契机?
有时候思路就是根据事实发散出来
那么关于价值判断,是不是真的有流量增长?是不是真提权?
立即用数据来核实,以2019年8月作为投资时间节点,选取爱站过去半年的数据作为样本,即使存在一些出入,也基本不影响结果,
词量数据
通过词量数据我们可以观察到以下2点:
自2019年11月中段起,访问量呈现骤增态势,数据总量由三十万激增至二百七十万,增幅高达九成。
从2020年7月开始,流量增长放缓,但仍保持增长趋势
那么,这些流量是以何种方式增长的?
收录数据
通过收录数据我们可以观察到以下两点:
尽管统计标准存在差异,不过当访问量出现骤增现象时,新增内容数量却保持稳定,这说明原有收录页面在相关检索词上的位置显著前移,地位确实得到提升
收录的页面已经无法触达更多搜索词了,百度提供给知乎的定向流量即将触及极限,嗯~
这种分析很容易让人觉得言不及义,因为分析所得跟最初获得的信息大体一致,我们的大脑难以应对重复的内容
这恰恰是两个思维方式“归纳法”和“演绎法”的不同之处
若不加以核实,推理过程预设了百度存在提权漏洞,进而后续所有步骤都建立在该前提之上
推理过程的每一个环节都建立在对前提条件真实性的确认之上,设想一下,倘若推论结论出现偏差将会引发何种情况
当今社会资讯泛滥,我们迫切需要具备辨别信息真伪的本领,而坚守个人见解尤为关键,不过独立思考并非意味着必须持有与众不同的看法。
有效思考是必须建立在足够的知识积累之上,不然就是盲目思考
如果身处陌生领域,学习同行仍然是不错的选择
尽管访问量提升速度有所减缓,不过如此庞大的访问量平台并未完全吸收,眼下依然存在并且必定有契机,借此优势阶段来吸引访问量并且获利
Let’s keep going !
2. SEO?
收录吗,排名吗,提权吗,如果你对此感到困惑,那么说明你对SEO这个范畴认识还不够深入,接下来简单说明一下
搜索引擎优化,就是根据搜索引擎的规则,对网站进行修改,目的是提升在目标搜索平台上的位置,从而吸引更多访问者,增加网站流量
收录:SE的爬虫系统抓取网页后,缓存在服务器上的行为
权重:SE对站点的综合评分,排名的主要依据
排名:页面缓存在搜索结果中的排列位置
以上3点均为动态变化
那么,一个搜索流量是如何产生的呢?
用户首先键入查询内容,向搜索引擎发出检索指令,搜索引擎依据预设规则对已存储信息进行排序,随后将处理后的结果展示在客户端,用户浏览呈现的条目,并按个人倾向选择其中一项进行访问
一个页面要获得访问量,必须首先被搜索引擎收录,接着要在搜索结果中占据前排位置,同时需要具备一定的搜索热度,并且标题和描述要能吸引点击。
点击时知乎具备独特优势,凭借多年专注知识领域平台的发展,用户对其品牌形成了深厚信任,即便搜索结果未进入前三,该平台仍可能吸引比其他选项更高的点击量
这次两方强强联手,百度为知乎输送精准用户,知乎则让用户转化率显著增强,真是相得益彰
3. 蓝海问题 + 蓝海流量
那么我们的机会在哪呢?
宏宏最近手头紧,就到百度上查了“怎样快速赚钱”(真实数据,仅做示例),发现知乎有个页面排在首位
接着手指稍有不慎按下了,目光落在空无一物的界面上,面容上出现了不易察觉的波动
坑爹呢这是!
5年的网赚经历给了我敏锐的嗅觉,这是机会
我随后获取了价值百万的关键词清单以及知乎的相关信息,经过仔细挑选和深入研究,发现其中不少问题的页面虽然能够吸引搜索流量,却面临着若干困境:
回答未解决搜索需求
回答质量低
回答少
回答前N名赞少
我们能否识别这类议题,自主生成内容,并争取获得优先展示,从而将流量导向我们个人的平台(例如微信或公众号)?
答案是肯定的!
总而言之,具备搜索量且竞争度不高的情况,我们整体称为“蓝海状况”,这些状况中产生的流量,我们整体称为“蓝海资源
接下来要展示一个实例,各位可以先行感受一下,请注意搜索引擎结果会不断变化,实际查询时可能会有所不同,而且出于公开的考虑,这里挑选了一个特定的案例进行说明。
爆炸性确认是关于同性恋的议题,该问题在电脑和手机平台上的排名均为第二位,手机端每月平均搜索次数达四十四万七千次,电脑端每月平均搜索次数为九万五千次,合计五十万次,位列第二的点击率大约为百分之二十,这表明该问题每月能吸引一百万的搜索引擎优化流量,而其中包含的回应内容又是什么情况呢?
第1名只有58个赞,有机会上去吗?有!有方法变现吗?
4. 突破认知局限
部分听众或许在此刻就感到不耐烦,思绪开始转向各自领域内的具体实施步骤
倘若你所处的行业缺乏有价值的潜在客户群体呢?为何必须选择自己擅长的范畴进行发展?
流量高手的思维,从来都是大盘思维,即以全局的视野来思考问题
现在,我们需要考察整个知乎的搜索量分布情况,找到那些有潜力的搜索区域,然后前往这些地方,而不是仅仅盯着某个具体问题或某个特定领域不放
甚至知乎好物完全可以基于蓝海流量的思维
始终记住我们的目的只有一个,那就是赚钱
这同样是我创办【TACE】(ACE,流量高手)这个公众号的核心构思,只是后来忙于处理项目事务,导致发文变得稀少,唉……
先前阐述了诸多观点,旨在阐明“道”的内涵,也就是实施这般行动的缘由;至于“法”,它本质上是僵化的,一旦规则发生更迭,相应手段便立刻失去效用
以苹果公司为例,它刚起步时,电池的费用只有市场上同类产品的十分之一,创始人乔布斯是如何实现这一点的?
那是因为他的方法论是“物理学思维”,将事物分解成最基础的部分来寻找解决途径,这个观点在TED演讲中有过阐述。
但是,80%的人都喜欢直接得到方法,why?
父亲提及,他听闻祖父的外祖父曾讲过,于数万年前,人类尚处狩猎时期,为求生存,始得演化出大脑
人的大脑形成耗费了极漫长岁月,大约百万年,而人类出现的历史却短得多,仅二十万年间,这意味着我们目前依然在使用着远古时期的大脑结构
那个所谓的“旧脑子”,一个很突出的特征就是最小用力法则,人天生倾向于选择耗费精力少的做法,就是能不动脑子就不动脑子,而理解道理则需要动用更多心智
我,还有旁人,每当变得迟钝不思进取时,就会自嘲为蒙昧时代的居民,咳咳,真是这样。
那么下面,就让我们一步步的进入“战场”
5. 打造百万级词库
词库是用户搜索词和词属性的集合
我们努力汇集N个来源的核心词汇,由于每个来源或外部平台均存在其约束条件
在精通流量的人看来,词汇库中存放的不是一个个的检索词,而是一沓沓的真金白银
以搜索流量的视角来看,在大多数情况下,加词等于加流量
你若能发掘到常人忽视的词汇,就能吸引旁人无法企及的关注,进而获取他人难以获得的收益
对于数据保存方式,个人主张采用csv格式,选用逗号作为分隔符的本地文件进行存储,与mysql这类数据库相比,借助Bash shell进行查询和处理显得极为便捷
拿词渠道:
5118,爱站,站长之家。
下面我用5118举例
5.1 母词获取
1)5118
分别下载百度PC关键词和移动关键词,分开处理
没有会员的朋友自行淘宝,有企业版的朋友建议全量导出
接下来的步骤,我们会开始涉及一些编程知识:
Bash shell(Linux) +
此次数据计算的需求,常规工具已经无法满足,因此需要借助“神秘”的编程力量来处理
我已全部完成个人工作,一些基础的Bash shell指令已直接在文本中呈现
然而仅此一项就能令百分之八十的人望而却步,可即便是像我这样的人,又何尝不是从新手阶段逐渐积累经验过来的呢?
编程其实并不复杂,相信我,如果能够,请对自己说那百分之二十
务必牢记,我们无需成为技术精湛的编码人员,仅需具备能满足现阶段要求的编程水平即可
2)初始处理
进行字符集转换,将GBK格式编码改为UTF-8格式,这是由于5118提供的数据采用GBK编码方式,而Linux系统环境要求使用UTF-8编码。
第三方数据精确度难以令人满意,以5118这种规模为例,每日更新量至少达1亿,成本因素十分突出
前100名的结果由于数据精确度不高,需要后续自行核实信息,其次,之前提及的动态排序和百度特殊权限,在收集资料与核实信息期间,时间或许已经过去,期间排名或许已经调整。
bash shell:
使用cat命令读取输入文件,然后通过iconv工具转换编码格式,指定源编码为默认值,目标编码为utf-8,接着用grep命令过滤掉包含特定文本的行,这些文本包括整域百度PC关键词排名列表、百度指数以及数值大于100的内容,之后用awk命令以逗号为分隔符处理每一行,仅输出第一个字段,最后将结果写入输出文件
3)关键词清理
特殊符号
s+.!?/_,$%^*()+”‘
+|
+——!,::。√?、~@#¥%……&*()“”《》~
极易被忽略的一个环节,许多人无条件依赖各个平台提供的关键词统计信息(涵盖百度),然而“流量高手”这个词条的检索热度,和“流量高手,”这个词条的检索热度,两者之间有着天壤之别
网址
这个网址包含多个不同的后缀,例如com、cn、cc和top,此外还有net、org、rog、tv、info和wang等,还有一些特殊的后缀如club和vip。
年份替换,例如2010年替换为2020年
中文长度 >=2 (可选)
4)去敏感词
违禁词大家明白,咱们这边运用了DFA方法,单个词平均处理时间短于零点一秒
5) 去重
数据清洗是个关键环节,但需要大量存储空间,因此待处理的资料体量必须小于系统可分配的内存容量
当前的处理方案是先借助split对目标文档进行分解,接着通过sort逐一进行排列,最后运用sort配合uniq完成合并并去除重复项
虽然没有大幅减少内存使用大小,但提升了计算效率
bash shell 简版:
将文件名作为参数传递给 cat 命令,接着执行排序操作,然后进行唯一性筛选,最终将结果输出到以文件名命名的文件中
bash shell 大数据版:
这个脚本接受命令行参数,第一个参数是输入文件,第二个参数是输出文件当前目录路径等于脚本所在目录路径,并打印当前日期和时间
.sh DEBUG INFO
启动文档分割流程…,运用split命令,以$1为参数,按照${}分隔符执行分割操作,接着输出当前日期时间信息
.sh DEBUG INFO
启动独立排列,针对每一个文件,运用列表命令显示所有项目,并将结果输出到以该文件名命名的排序文件中,完成单项整理,然后对日期进行排序处理
.sh DEBUG INFO
启动整合并消除重复…”运用排序工具 ${} 对 *.sort 文件进行操作,结果输出至变量 $2,同时记录当前时间戳
.sh DEBUG INFO
删除缓存数据…”rm ${}//*
使用方法:
保存为以.sh为后缀名的文件,于所在文件夹内建立新目录,接着执行下列指令,允许为输入输出文档设定具体位置
sh 脚本名称.sh 输入文件 输出文件
OK,处理完成,我们获取了两个相当纯粹的初始词库,分别是来自知乎和百度台式机端的关键词,以及来自移动端的关键词
5.2 词扩展
词汇延伸是指针对已获取的源词进行拓展,由于一个页面或许会匹配到诸多关联性较强的检索词
接下来可以推测,从其他渠道搜集到的词汇仅是他们所能搜集到的部分,而目前知乎平台能够匹配到的词汇只是其中的一个分支。
需要广泛搜集相关领域的关键词,以便更精确地估算特定网页在百度上的访问量,同时还要参考其他来源的数据
现有A与B两个议题,A涉及五十个词汇,总关注度达一万,B关联十个词汇,关注度为一百
那么你可能将B问题忽略掉,只处理A问题
可是,B问题实际上命中了100个关键词,流量为10W
这种状况是因为资料存在缺失,引发了信息不对称,最终导致直接错失了利用这些渠道的可能性
举个例子:
这个页面扩充后,识别出47个关键词,来自PC和移动的总访问量达到132万,由于广告数量过多,知乎启动了内容管理措施并发布了警告,接下来是这些数据的呈现部分
感觉如何,是否逐渐体会到信息的吸引力了?振作起来,继续努力前行!
由于只做百度流量,下面只使用百度来扩展
1)相关搜索 + 下拉框词抓取
很多人只知道抓这两个渠道,并不知道这两个渠道的性质:
相关搜索
搜索结果向横向延伸,多数涉及跨主题的关联拓展,有时会出现议题显著偏离的状况,为确保关联度,仅获取一次信息
下拉框
下拉框为纵向扩展,大部分在关键词的结尾追加词缀
说明渠道属性的重要性在于,所谓关键词这类文字信息,其延伸路径仅存在两种,其余所有拓展途径都是这两种核心路径的复合或变体
由于各个平台生成的信息或许存在差异,因此必须将电脑版和手机版的初始词汇,各自在同一通道上进行延伸处理
PC核心词带动PC相关检索,同时PC配套的筛选功能,移动核心词带动移动相关检索,并配合移动端的筛选工具
2)百度推广后台词扩展
操作流程是这样的:首先进行登记或者登陆,接着前往搜索广告部分,然后来到广告监管界面,再使用词语设计助手,最后确定目标词汇
注册免费,另外你还可以使用艾奇SEM工具/斗牛SEO工具等
3)词处理
先将各个渠道的词分端口合并
bash shell:
将文件file1.txt和文件file2.txt的内容合并,然后输出到文件all.txt中
然后重复【5.1母词获取】的关键词清理和去重部分
5.3 获取关键词流量
同样借助百度推广后台的关键词规划工具,不过运用的是“数据统计”这个模块
这是百度公布的访问量统计,早前的统计标准是每日检索次数,近些年转变为每月检索次数,这样的调整并无影响
部分人或许存有困惑,为何不先通过排序来挑选信息,以此降低后续处理信息的负担?
关键词规划师单次可查询达一千个数量,十万关键词仅需查询一百回就能完成全部检索工作
经过实际验证,单次获取能够持续过夜,并且有效登录时间能维持在十个小时以上,拜托,请一定温柔一点操作
1)流量数据获取
通过模拟登录的方式post关键词数据
2)数据筛选
每个端只保留搜索量 >= N的关键词(数值自定义)
数据收集过程中可以实施过滤,或者单独设立过滤环节,个人倾向于采用后一种方式,倘若衡量标准不恰当,尚有再次过滤的机会
bash shell:
将文件内容通过管道传递给awk处理,以逗号为分隔符,筛选出第二列数值大于等于100的行,然后将结果输出到.txt文件中
5.4 获取关键词排名
分别获取各端的排名数据,只保留
{问题ID}
根据这个网址的特征,筛选出排名靠前的十个关键词,并记录下与这些问题相关的网址地址
5.5 可获取流量
关键词流量并不等于知乎问题页面能获取的实际流量
先前说过,搜索流量在抵达页面时需经历一次点击环节,因此我们应当测算可获取流量,其计算方法如下:
可获取流量 = 流量 X 点击率
网站热度依据位次判定,不过百度好像从未公布过点击热度统计,唉…
不过我们获得了一份于2020年7月14日公布的点击率资料,这份资料考察了八千多万个关键词,以及数十亿条搜索记录
虽然只是移动端的统计,但并无大碍
原文(英文):
每项关键词的流量获取量核算完毕之后,我们的词汇库便构建完成了,!
6. 知乎数据获取
收集数据是为了,从这N个维度的信息里,能够初步评估某个事项的复杂程度,这属于9.1数据筛选的部分内容。
数据在精不在多,过多的数据只会干扰判断
问题浏览量
问题关注量(知乎站内流量)
问题创建时间
回答数量
第1名赞数量
第1名回答字数
第1名回答时间
目前所有必要的基础资料已经收集齐全,你应该已经获取了包含百度和知乎信息的核心关键词文档,恭喜你完成了这项工作!
如果你已经坚持到了这个阶段,我确信,我极乐意结识你这样的伙伴,彼此成为朋友^_^
7. 数据分析
7.1 关键词分组
面对数量庞大且混乱的数据,我们应当借助关键词归类的方式,把关联性强的关键词和它们关联的页面进行整合,使它们集中到同一个区域
1)jieba分词
借助分词工具,将每个关键词拆解为N个基本单位,例如“流量高手”会被分解为“流量”和“高手”,含有相同基本单位的词被看作一类
2)词项去重
参考【5.1母词获取】的去重部分
3)词项数据计算
逐个核对各项内容与目标词汇的对应关系,统计符合要求的条目数目,同时累加由此产生的全部访问量
从事搜索引擎优化工作的人或许会觉得有些眼熟,这种做法跟网络信息检索系统的“反向文件索引”如出一辙,我们本质上是以关键词为参照,将知乎上的网址进行分组整理
下面随便拿点演示数据:
7.2 人工分类
依据字符串本身进行归类是一种直接方法,这种方式简单直接,却忽略了词语间的内在联系
例如“买卖证券”与“证券交易”这两个概念同属于经济范畴,若按词汇分类则会分散成两个类别,因此最终需要人工复核
分类完成后,将对应的词频和可获取流量总和相加,得到总数据
然后用思维导图/表格的形式记录,下面用思维导图示例
务必牢记,不可为了分类而分类,彼此缺乏明显关联的条目绝不能归入同一类别,否则只会徒增不必要的困扰
8. 问题筛选
8.1 数据筛选
现在我们可以从流量最丰富的类别中挑选一个词,在【6-7】完成后的关键词文档里,借助Bash shell工具或Excel-csv文件,搜索“关键词”这一列,找出其中含有这个词的条目,接着通过指标进行筛选,这里提供几个筛选数据供参考
问题浏览量(辅助)
问题关注量(辅助)
问题创建时间(辅助)
回答数量 xxxx…..
Stop!请立刻停止你的上头行为,我们还有最后一步
9. 流量跟踪
万里长征最后一步,非常重要,非常重要,非常重要
我们前面提到2点:
百度推广系统的关键词规划师功能里,数据统计周期为月份,提供的是预估流量数值
SEO的网页排名是动态的
这种情况或许会导致成果出现波动,费心费力整理了资料,用心撰写了内容,精心设置了排序,最终却收获不到应有的关注度?
因此需要观察页面访问量的变化情况,以确认该页面是否获得了有效浏览,了解其吸引访问者的程度,从而决定是否需要处理这些问题
监测周期能够选取日,如果需要更精密,可按每N个小时来划分,具体监测时间长度需要自行评估,通常来说,时间跨度越长,结果越精确。
以某个问题为例,其能够获取的访问量是十五万,那么平均每日能获得的访问量大约是五千,那么三天(不计节假日)能获得的访问量总计是一万五千。
统计此页面的访问次数,并与以往数据比较,只要增减幅度不大,便可以纳入我们的参考名单
10.最后
从全局营销的角度审视,可以明确蓝海流量开拓是所有营销活动的基础环节,后续工作包括搜索结果位置提升、用户访问路径优化以及收益转化等
另有一些技巧方法,可助我们更佳运用蓝海资源,诸如信息叠加分析,高级策略运用等
然而详细阐述之前提及的要点,涉及诸多内容,因受时间精力制约,我们待下次再行探讨 |
|