- N +

html博客源碼?html博客網頁代碼

大家好,今天小編來為大家解答以下的問題,關于html博客源碼,html博客網頁代碼這個很多人還不知道,現在讓我們一起來看看吧!

如何分析博客中最流行的編程語言

為了回答這些問題,我決定做一個Scrapy項目,它將收集一些數據,然后對所獲得的信息執行特定的數據分析和數據可視化。

第一部分:Scrapy

我們將使用Scrapy為我們的工作,因為它為抓取和對該請求處理后的反饋進行管理提供了干凈和健壯的框架。我們還將使用Splash來解析需要處理的Javascript頁面。Splash使用自己的Web服務器充當代理,并處理Javascript響應,然后再將其重定向到我們的爬蟲進程。

我這里沒有描述Scrapy的設置,也沒有描述Splash的集成。你可以在這里找到Scrapy的示例,而這里還有Scrapy+Splash指南。

獲得相關的博客

第一步顯然是獲取數據。我們需要關于編程博客的谷歌搜索結果。你看,如果我們開始僅僅用谷歌自己來搜索,比如說查詢“Python”,除了博客,我們還會得到很多其它的東西。我們需要的是做一些過濾,只留下特定的博客。幸運的是,有一種叫做Google自定義搜索引擎(CSE)的東西,它能做到這一點。還有一個網站www.blogsearchengine.org,它正好可以滿足我們需要,它會將用戶請求委托給CSE,這樣我們就可以查看它的查詢并重復利用它們。

所以,我們要做的是到www.blogsearchengine.org網站,搜索“python”,并在一側打開Chrome開發者工具中的網絡標簽頁。這截圖是我們將要看到的:

突出顯示的是blogsearchengine向谷歌委派的一個搜索請求,所以我們將復制它,并在我們的scraper中使用。

這個博客抓取爬行器類會是如下這樣的:

classBlogsSpider(scrapy.Spider):name='blogs'allowed_domains=['cse.google.com']def__init__(self,queries):super(BlogsSpider,self).__init__()self.queries=queries

與典型的Scrapy爬蟲不同,我們的方法覆蓋了__init__方法,它接受額外的參數queries,它指定了我們想要執行的查詢列表。

現在,最重要的部分是構建和執行這個實際的查詢。這個過程放在start_requests爬蟲的方法里面執行,我們愉快地覆蓋它:

defstart_requests(self):params_dict={'cx':['partner-pub-9634067433254658:5laonibews6'],'cof':['FORID:10'],'ie':['ISO-8859-1'],'q':['query'],'sa.x':['0'],'sa.y':['0'],'sa':['Search'],'ad':['n9'],'num':['10'],'rurl':['http://www.blogsearchengine.org/search.html?cx=partner-pub''-9634067433254658%3A5laonibews6&cof=FORID%3A10&ie=ISO-8859-1&''q=query&sa.x=0&sa.y=0&sa=Search'],'siteurl':['http://www.blogsearchengine.org/']}params=urllib.parse.urlencode(params_dict,doseq=True)url_template=urllib.parse.urlunparse(['https',self.allowed_domains[0],'/cse','',params,'gsc.tab=0&gsc.q=query&gsc.page=page_num'])forqueryinself.queries:forpage_numinrange(1,11):url=url_template.replace('query',urllib.parse.quote(query))url=url.replace('page_num',str(page_num))yieldSplashRequest(url,self.parse,endpoint='render.html',args={'wait':0.5})

在這里你可以看到相當復雜的params_dict字典,它控制所有我們之前找到的GoogleCSEURL的參數。然后我們準備好url_template里的一切,除了已經填好的查詢和頁碼。我們對每種編程語言請求10頁,每一頁包含10個鏈接,所以是每種語言有100個不同的博客用來分析。

在42-43行,我使用一個特殊的類SplashRequest來代替Scrapy自帶的Request類。它封裝了Splash庫內部的重定向邏輯,所以我們無需為此擔心。十分整潔。

最后,這是解析程序:

defparse(self,response):urls=response.css('div.gs-title.gsc-table-cell-thumbnail')\.xpath('./a/@href').extract()gsc_fragment=urllib.parse.urlparse(response.url).fragmentfragment_dict=urllib.parse.parse_qs(gsc_fragment)page_num=int(fragment_dict['gsc.page'][0])query=fragment_dict['gsc.q'][0]page_size=len(urls)fori,urlinenumerate(urls):parsed_url=urllib.parse.urlparse(url)rank=(page_num-1)*page_size+iyield{'rank':rank,'url':parsed_url.netloc,'query':query}

所有Scraper的核心和靈魂就是解析器邏輯??梢杂卸喾N方法來理解響應頁面的結構并構建XPath查詢字符串。您可以使用Scrapyshell嘗試并隨時調整你的XPath查詢,而不用運行爬蟲。不過我更喜歡可視化的方法。它需要再次用到谷歌Chrome開發人員控制臺。只需右鍵單擊你想要用在你的爬蟲里的元素,然后按下Inspect。它將打開控制臺,并定位到你指定位置的HTML源代碼。在本例中,我們想要得到實際的搜索結果鏈接。他們的源代碼定位是這樣的:

在查看這個元素的描述后我們看到所找的

有一個.gsc-table-cell-thumbnailCSS類,它是.gs-title的子元素,所以我們把它放到響應對象的css方法(46行)。然后,我們只需要得到博客文章的URL。它很容易通過'./a/@href'XPath字符串來獲得,它能從我們的直接子元素的href屬性找到。(LCTT譯注:此處圖文對不上)

尋找流量數據

下一個任務是估測每個博客每天得到的頁面瀏覽量。得到這樣的數據有各種方式,有免費的,也有付費的。在快速搜索之后,我決定基于簡單且免費的原因使用網站www.statshow.com來做。爬蟲將抓取這個網站,我們在前一步獲得的博客的URL將作為這個網站的輸入參數,獲得它們的流量信息。爬蟲的初始化是這樣的:

classTrafficSpider(scrapy.Spider):name='traffic'allowed_domains=['www.statshow.com']def__init__(self,blogs_data):super(TrafficSpider,self).__init__()self.blogs_data=blogs_data

blogs_data應該是以下格式的詞典列表:{"rank":70,"url":"www.stat.washington.edu","query":"Python"}。

請求構建函數如下:

defstart_requests(self):url_template=urllib.parse.urlunparse(['http',self.allowed_domains[0],'/www/{path}','','',''])forbloginself.blogs_data:url=url_template.format(path=blog['url'])request=SplashRequest(url,endpoint='render.html',args={'wait':0.5},meta={'blog':blog})yieldrequest

它相當的簡單,我們只是把字符串/www/web-site-url/添加到'www.statshow.com'URL中。

現在讓我們看一下語法解析器是什么樣子的:

defparse(self,response):site_data=response.xpath('//div[@id="box_1"]/span/text()').extract()views_data=list(filter(lambdar:'notinr,site_data))ifviews_data:blog_data=response.meta.get('blog')traffic_data={'daily_page_views':int(views_data[0].translate({ord(','):None})),'daily_visitors':int(views_data[1].translate({ord(','):None}))}blog_data.update(traffic_data)yieldblog_data與博客解析程序類似,我們只是通過StatShow示例的返回頁面,然后找到包含每日頁面瀏覽量和每日訪問者的元素。這兩個參數都確定了網站的受歡迎程度,對于我們的分析只需要使用頁面瀏覽量即可。第二部分:分析這部分是分析我們搜集到的所有數據。然后,我們用名為Bokeh的庫來可視化準備好的數據集。我在這里沒有給出運行器和可視化的代碼,但是它可以在GitHubrepo中找到,包括你在這篇文章中看到的和其他一切東西。最初的結果集含有少許偏離過大的數據,(如google.com、linkedin.com、Oracle.com等)。它們顯然不應該被考慮。即使其中有些有博客,它們也不是針對特定語言的。這就是為什么我們基于這個StackOverflow回答中所建議的方法來過濾異常值。語言流行度比較首先,讓我們對所有的語言進行直接的比較,看看哪一種語言在前100個博客中有最多的瀏覽量。這是能進行這個任務的函數:defget_languages_popularity(data):query_sorted_data=sorted(data,key=itemgetter('query'))result={'languages':[],'views':[]}popularity=[]fork,groupingroupby(query_sorted_data,key=itemgetter('query')):group=list(group)daily_page_views=map(lambdar:int(r['daily_page_views']),group)total_page_views=sum(daily_page_views)popularity.append((group[0]['query'],total_page_views))sorted_popularity=sorted(popularity,key=itemgetter(1),reverse=True)languages,views=zip(*sorted_popularity)result['languages']=languagesresult['views']=viewsreturnresult在這里,我們首先按語言(詞典中的關鍵字“query”)來分組我們的數據,然后使用python的groupby函數,這是一個從SQL中借來的奇妙函數,從我們的數據列表中生成一組條目,每個條目都表示一些編程語言。然后,在第14行我們計算每一種語言的總頁面瀏覽量,然后添加('Language',rank)形式的元組到popularity列表中。在循環之后,我們根據總瀏覽量對流行度數據進行排序,并將這些元組展開到兩個單獨的列表中,然后在result變量中返回它們。最初的數據集有很大的偏差。我檢查了到底發生了什么,并意識到如果我在blogsearchengine.org上查詢“C”,我就會得到很多無關的鏈接,其中包含了“C”的字母。因此,我必須將C排除在分析之外。這種情況幾乎不會在“R”和其他類似C的名稱中出現:“C++”、“C”。因此,如果我們將C從考慮中移除并查看其他語言,我們可以看到如下圖:評估結論:Java每天有超過400萬的瀏覽量,PHP和Go有超過200萬,R和JavaScript也突破了百萬大關。每日網頁瀏覽量與谷歌排名現在讓我們來看看每日訪問量和谷歌的博客排名之間的聯系。從邏輯上來說,不那么受歡迎的博客應該排名靠后,但這并沒那么簡單,因為其他因素也會影響排名,例如,如果在人氣較低的博客上的文章更新一些,那么它很可能會首先出現。數據準備工作以下列方式進行:defget_languages_popularity(data):query_sorted_data=sorted(data,key=itemgetter('query'))result={'languages':[],'views':[]}popularity=[]fork,groupingroupby(query_sorted_data,key=itemgetter('query')):group=list(group)daily_page_views=map(lambdar:int(r['daily_page_views']),group)total_page_views=sum(daily_page_views)popularity.append((group[0]['query'],total_page_views))sorted_popularity=sorted(popularity,key=itemgetter(1),reverse=True)languages,views=zip(*sorted_popularity)result['languages']=languagesresult['views']=viewsreturnresult該函數接受爬取到的數據和需要考慮的語言列表。我們對這些數據以語言的流行程度進行排序。后來,在類似的語言分組循環中,我們構建了(rank,views_number)元組(從1開始的排名)被轉換為2個單獨的列表。然后將這一對列表寫入到生成的字典中。前8位GitHub語言(除了C)是如下這些:評估結論:我們看到,所有圖的PCC(皮爾遜相關系數)都遠離1/-1,這表示每日瀏覽量與排名之間缺乏相關性。值得注意的是,在大多數圖表(8個中的7個)中,相關性是負的,這意味著排名的降低會導致瀏覽量的減少。結論因此,根據我們的分析,Java是目前最流行的編程語言,其次是PHP、Go、R和JavaScript。在日常瀏覽量和谷歌排名上,排名前8的語言都沒有很強的相關性,所以即使你剛剛開始寫博客,你也可以在搜索結果中獲得很高的評價。不過,成為熱門博客究竟需要什么,可以留待下次討論。這些結果是相當有偏差的,如果沒有更多的分析,就不能過分的考慮這些結果。首先,在較長的一段時間內收集更多的流量信息,然后分析每日瀏覽量和排名的平均值(中值)值是一個好主意。也許我以后還會再回來討論這個。成都朗沃教育專注IT培訓12年,希望該回答對你有幫助!","upvoteCount":2,"url":"https://www.toutiao.com/answer/6488167219669762317/"}]}}!function(r,e,t,n,s,a,o,i,c,l,d,p,m,f){a="precollect",o="getAttribute",i="addEventListener",(l=function(e){(d=[].slice.call(arguments)).push(Date.now(),location.href),(e==a?l.p.a:l.q).push(d)}).q=[],l.p={a:[]},r[s]=l,(p=document.createElement("script")).src=t+"?bid=toutiao_web_pc&globalName="+s,p.crossOrigin=0與博客解析程序類似,我們只是通過StatShow示例的返回頁面,然后找到包含每日頁面瀏覽量和每日訪問者的元素。這兩個參數都確定了網站的受歡迎程度,對于我們的分析只需要使用頁面瀏覽量即可。

第二部分:分析

這部分是分析我們搜集到的所有數據。然后,我們用名為Bokeh的庫來可視化準備好的數據集。我在這里沒有給出運行器和可視化的代碼,但是它可以在GitHubrepo中找到,包括你在這篇文章中看到的和其他一切東西。

最初的結果集含有少許偏離過大的數據,(如google.com、linkedin.com、Oracle.com等)。它們顯然不應該被考慮。即使其中有些有博客,它們也不是針對特定語言的。這就是為什么我們基于這個StackOverflow回答中所建議的方法來過濾異常值。

語言流行度比較

首先,讓我們對所有的語言進行直接的比較,看看哪一種語言在前100個博客中有最多的瀏覽量。

這是能進行這個任務的函數:

defget_languages_popularity(data):query_sorted_data=sorted(data,key=itemgetter('query'))result={'languages':[],'views':[]}popularity=[]fork,groupingroupby(query_sorted_data,key=itemgetter('query')):group=list(group)daily_page_views=map(lambdar:int(r['daily_page_views']),group)total_page_views=sum(daily_page_views)popularity.append((group[0]['query'],total_page_views))sorted_popularity=sorted(popularity,key=itemgetter(1),reverse=True)languages,views=zip(*sorted_popularity)result['languages']=languagesresult['views']=viewsreturnresult

在這里,我們首先按語言(詞典中的關鍵字“query”)來分組我們的數據,然后使用python的groupby函數,這是一個從SQL中借來的奇妙函數,從我們的數據列表中生成一組條目,每個條目都表示一些編程語言。然后,在第14行我們計算每一種語言的總頁面瀏覽量,然后添加('Language',rank)形式的元組到popularity列表中。在循環之后,我們根據總瀏覽量對流行度數據進行排序,并將這些元組展開到兩個單獨的列表中,然后在result變量中返回它們。

最初的數據集有很大的偏差。我檢查了到底發生了什么,并意識到如果我在blogsearchengine.org上查詢“C”,我就會得到很多無關的鏈接,其中包含了“C”的字母。因此,我必須將C排除在分析之外。這種情況幾乎不會在“R”和其他類似C的名稱中出現:“C++”、“C”。

因此,如果我們將C從考慮中移除并查看其他語言,我們可以看到如下圖:

評估結論:Java每天有超過400萬的瀏覽量,PHP和Go有超過200萬,R和JavaScript也突破了百萬大關。

每日網頁瀏覽量與谷歌排名

現在讓我們來看看每日訪問量和谷歌的博客排名之間的聯系。從邏輯上來說,不那么受歡迎的博客應該排名靠后,但這并沒那么簡單,因為其他因素也會影響排名,例如,如果在人氣較低的博客上的文章更新一些,那么它很可能會首先出現。

數據準備工作以下列方式進行:

defget_languages_popularity(data):query_sorted_data=sorted(data,key=itemgetter('query'))result={'languages':[],'views':[]}popularity=[]fork,groupingroupby(query_sorted_data,key=itemgetter('query')):group=list(group)daily_page_views=map(lambdar:int(r['daily_page_views']),group)total_page_views=sum(daily_page_views)popularity.append((group[0]['query'],total_page_views))sorted_popularity=sorted(popularity,key=itemgetter(1),reverse=True)languages,views=zip(*sorted_popularity)result['languages']=languagesresult['views']=viewsreturnresult

該函數接受爬取到的數據和需要考慮的語言列表。我們對這些數據以語言的流行程度進行排序。后來,在類似的語言分組循環中,我們構建了(rank,views_number)元組(從1開始的排名)被轉換為2個單獨的列表。然后將這一對列表寫入到生成的字典中。

前8位GitHub語言(除了C)是如下這些:

評估結論:我們看到,所有圖的PCC(皮爾遜相關系數)都遠離1/-1,這表示每日瀏覽量與排名之間缺乏相關性。值得注意的是,在大多數圖表(8個中的7個)中,相關性是負的,這意味著排名的降低會導致瀏覽量的減少。

結論

因此,根據我們的分析,Java是目前最流行的編程語言,其次是PHP、Go、R和JavaScript。在日常瀏覽量和谷歌排名上,排名前8的語言都沒有很強的相關性,所以即使你剛剛開始寫博客,你也可以在搜索結果中獲得很高的評價。不過,成為熱門博客究竟需要什么,可以留待下次討論。

這些結果是相當有偏差的,如果沒有更多的分析,就不能過分的考慮這些結果。首先,在較長的一段時間內收集更多的流量信息,然后分析每日瀏覽量和排名的平均值(中值)值是一個好主意。也許我以后還會再回來討論這個。

成都朗沃教育專注IT培訓12年,希望該回答對你有幫助!

怎樣學好python

Python語言這幾年大火,在世界編程語言排行中Python也位居第四名,相比2017上升了一位,上面只有Java/C/C++,可以說python憑借自身的簡單便捷、面向對象的優勢力壓了php和js這些同樣大熱的語言。

而學習Python有很多好處,無論是大數據、人工智能、、爬蟲、安全滲透工具都離不開Pyhton的使用,下面就推薦一下Pyhton的學習方式,幫助更多有興趣的朋友更好的入門。

01思想大于代碼

從思想層面要知道,編程最終最重要的是編程思維,不是代碼命令。就是拿到一個項目要怎么做,邏輯怎么設計,這是需要人腦來想象的,其他代碼層面忘了可以查文檔,初期的練習中一定要結合大量的實踐訓練,理論初期會比較抽象,沒有實操很難掌握,個人建議看下基礎知識后直接尋找小項目進行編程練習,碰到難點在去查資料。

基礎知識就是先大概了解下Pyhton的核心知識,比如:數據類型(數字,字符串,列表,元組,字典,集合),條件&循環,文件對象,錯誤&異常,函數,模塊,面向對象編程,這些基本概念,不需要全記住,先過一遍即可,然后進行大量的項目實操。

02實戰大于理論

千萬不要一個點一個點的死扣,就算看懂了所有知識點,你也不知道如何結合起來,這是編程的大忌,就像學英語一樣,你背了5000個單詞,自我感覺良好,讓你寫個文章就不行了,根本不知道如何組合使用才是地道的。

建議從小項目入手,初期可以使用些簡單練習題,比如:你有10000元人們幣,存儲多少年能達到2萬元人們幣,一個個小的練習題開始穩固自己的知識和代碼能力,然后慢慢使用更大的項目,比如用Django搭建個小型的CMS和BLOG,你會慢慢知道整個web的框架,數據庫的調用,前端html/css/img/js的簡單調用,這對于以后有很大的幫助。

03學習資料分享

當然,說這么多要有足夠的學習資料支撐,所以特意分享一些網站給讀者參考,內容都算不錯的。

知識體系架構的搭建可以看下這個網站,將Python的基礎知識做成了14張思維導圖,對學習者很有幫助。https://woaielf.github.io/2017/06/13/python3-all/Python教程——廖雪峰,行業里有點口碑的老師,講的確實不錯,比較細致。https://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000runoob是一個常用的網站,里面會有詳細代碼解釋和小練習,做實踐穩固基礎。http://www.runoob.com/python/python-exercise-example100.html

廣州html5網站開發學習要多久學完好找工作嗎

什么是HTML5

HTML5是最新的HTML標準。它是專門為承載豐富的web內容而設計的,并且無需額外插件。HTML5擁有新的語義、圖形以及多媒體元素。它提供的新元素和新的API簡化了web應用程序的搭建。除此以外,HTML5是跨平臺的,被設計為在不同類型的硬件(PC、平板、手機、電視機等等)之上運行。

所以只需要大概兩個多月的時間就可以學完HTML5。

但是只學HTML5的話,就業就會很困難了。至少要再花時間掌握CSS和JavaScript:

CSS:層疊樣式表(英文全稱:CascadingStyleSheets)是一種用來表現HTML(標準通用標記語言的一個應用)或XML(標準通用標記語言的一個子集)等文件樣式的計算機語言。CSS不僅可以靜態地修飾網頁,還可以配合各種腳本語言動態地對網頁各元素進行格式化。[1]

CSS能夠對網頁中元素位置的排版進行像素級精確控制,支持幾乎所有的字體字號樣式,擁有對網頁對象和模型樣式編輯的能力

JS:JavaScript(簡稱“JS”)的前身是LiveScript語言,它是一種具有函數優先的輕量級,解釋型或即時編譯型的編程語言。雖然它是作為開發Web頁面的腳本語言而出名的,但是它也被用到了很多非瀏覽器環境中,JavaScript基于原型編程、多范式的動態腳本語言,并且支持面向對象、命令式和聲明式(如函數式編程)風格。

就業前景

1.H5web前端工程師

這個崗位主要負責的產品是網頁界面部分。所需要掌握的技術有:

html、css、js即可完成

為提高開發開發速度,會配合使用css和js框架

css框架(bootstrap,FontAwesome...)

js框架(jQuery、Vue.js、React.js、Angular.js)

2.H5服務器后端工程師

這個崗位主要負責的是服務器部分。所需要掌握的技術有:

web前端工程師所需的所有技術(至少要會html,css和js)

js框架

Node.js

Node.js的框架的框架(express.js、mysql.js)

數據庫技術(以下至少一種數據庫,常常是混合使用)

MySQL、MongoDBDocumentation、redis

頭條中有一些數據庫方面的專家,比如@網云技術,可以多看他們的技術文章和訂閱他們的專欄深入學習。

3.H5移動設備開發工程師

手機應用開發工程師,又叫手機APP工程師,主要負責的是APP應用軟件的開發。

所需掌握的技術有:

做界面html、css、js即可完成

為提高開發開發速度和難度,會配合使用css和js框架

–css框架(bootstrap,mui,FontAwesome)

–js框架(jQuery、Vue.js、React.js、Angular.js)

–操作手機本身的功能(聯系人、攝像頭、傳感器、二維碼掃描等...)js即可完成,為提高開發開發速度和難度會選擇使用js框架(HTML+、ReactNative、vueMit、IoNic、Cordever)

4.微信小程序工程師

這個崗位主要負責的產品有微信小程序應用程序和微信小程序游戲程序等。所需要掌握的技術有:html,css,js。

常用的開源HTML編輯器

HBuilder

(https://www.dcloud.io/)

HBuilder是DCloud(數字天堂)推出的一款支持HTML5的Web開發IDE.HBuilder的編寫用到了Java、C、Web和Ruby。HBuilder本身主體是由Java編寫。

它基于Eclipse,所以順其自然地兼容了Eclipse的插件。

快,是HBuilder的最大優勢,通過完整的語法提示和代碼輸入法、代碼塊等,大幅提升HTML、js、css的開發效率

AptanStudio3

(http://www.aptana.com/)

Aptana這個HTML5編輯器是一個開源的開發工具,支持開放的Web開發。開發者可以使用單一的設置來測試他們的Web應用程序。Aptana支持大多數現代瀏覽器技術,例如HTML5,CSS3,JavaScript,PHP,RubyRails,Ruby,和Python。其功能包括JavaScript代碼提示,HTML,GIF的融入,IDE自定義,和操作向導

BlueGriffon

(http://bluegriffon.org/)

作為新一代的一代HTML5編輯器,BlueGriffon所提供的全新的所見即所得(WYSIWYG)的內容編輯是由為Gecko提供的技術支持(Gecko是火狐引擎服務提供商)。BlueGriffon是可以免費下載的,它同時支持Windows,Linux和MACOSX三個平臺。它可以幫助你制作和編輯所有的HTML5以及HTML5文件。用戶可以很容易地制作網頁和工藝精細的UI用戶界面。不得不提的是,這個編輯器支持包括中文在內的9種語言.

Maqetta

Maqetta作為一個開源項目同時也是一個html5的編輯器。Maqetta應用本身用HTML5/Ajax編寫,因此運行在瀏覽器中不需借助額外的下載和插件。這個編輯器的功能可謂是多種多樣,包括開發和設計工作流、網頁可視編輯,WYSIWYG可視化頁面編輯、拖曳式移動UI設計、設計或源碼瀏覽同步編輯、線框圖、主題編輯器和窗口小部件、JavaScript庫,等等。Maqetta支持幾乎所有最新的瀏覽器其中包括:谷歌Chrome,火狐,和蘋果的Safari.

notepad++

Notepad++程序員必備的文本編輯器,軟件小巧高效,支持27種編程語言,通吃C,C++,Java,C#,XML,HTML,PHP,JS等。內置支持多達27種語法高亮度顯示(包括各種常見的源代碼、腳本,能夠很好地支持。nfo文件查看),還支持自定義語言。

ditPlus

EditPlus一套功能強大,可取代記事本的文字編輯器,擁有無限制的撤消與重做、英文拼字檢查、自動換行、列數標記、搜尋取代、同時編輯多文件、全屏幕瀏覽功能。而它還有一個好用的功能,就是它有監視剪貼板的功能,能夠同步于剪貼板自動將文字粘貼進EditPlus的編輯窗口!

FCKEditor

功能強大,加載慢.在很多地方使用廣泛,比如CSDN的blog就是使用的這個.功能也可以定制.也支持多種瀏覽器,遵循LGPL版權.目前最新版是2.0.

TinyMCE

界面相當清新,適合素雅主義使用,功能比較強大,不遜色于FCKEditor,但是加載速度委實比較慢,支持多種瀏覽器,使用LGPL版權,目前最新版本是2.0.

希望我的回答能夠幫到您!

好了,文章到這里就結束啦,如果本次分享的html博客源碼和html博客網頁代碼問題對您有所幫助,還望關注下本站哦!

返回列表
上一篇:
下一篇: