wordpress站點(diǎn),如何建立移動兼容版的WordPress網(wǎng)站?
可以選擇H5自適應(yīng)模板,現(xiàn)在我自己就有一個(gè)網(wǎng)站用的WordPress,模板是自適應(yīng)的,手機(jī)瀏覽就是手機(jī)版。電腦瀏覽就是電腦版…不過如果用WordPress程序必須會優(yōu)化,不會優(yōu)化建議用zblog,我的那個(gè)用WordPress做的網(wǎng)站三天兩頭數(shù)據(jù)庫停止運(yùn)行,真的特別痛苦,CDN也設(shè)置了,虛擬化也做了,直接把網(wǎng)頁HTML靜態(tài)化也做了,即便是這樣還是經(jīng)常出現(xiàn)服務(wù)器因?yàn)閮?nèi)存不足停止運(yùn)行數(shù)據(jù)庫…
如何查看WordPress的數(shù)據(jù)庫地址?
你好,WordPress程序的數(shù)據(jù)庫配置文件都保存在wp-config.php 中。你登陸到對應(yīng)的目錄,找到wp-config.php,打開,就可以看到。然后可以在主機(jī)控制面板中,登陸phpmyadmin,就可以看到數(shù)據(jù)表了。
有哪些比較好的建站網(wǎng)站?
建站網(wǎng)站有很多,網(wǎng)上一搜一大把,這里重點(diǎn)推薦一下Wordpress。
WordPress建立在PHP和MySQL之上,并獲得GPLv2的許可。它也是網(wǎng)絡(luò)上超過34%的所有站點(diǎn)的首選平臺。其貢獻(xiàn)者在全球各地工作,作為開源軟件,其是免費(fèi)使用的。
其社區(qū)的國內(nèi)官網(wǎng)地址:https://cn.wordpress.org
商用支持官網(wǎng)地址為:
https://www.wordpress.com
這里推薦它是因?yàn)樗兄伴_箱即用”的特點(diǎn),號稱5分鐘安裝完成并能投入使用。在全球經(jīng)過十?dāng)?shù)年的發(fā)展,有著數(shù)以萬計(jì)的各種插件,來完成諸如博客,公司官網(wǎng),個(gè)人主面,電商平臺,社區(qū)及論壇等網(wǎng)站建設(shè)。
同時(shí),國內(nèi)外也著大量的專業(yè)化公司來完成諸如各類定制,優(yōu)化等工作。其插件的支持水平是商業(yè)級的。
下圖是筆者利用Wordpressress花個(gè)幾天時(shí)間建的個(gè)人博客示例,基本滿足建站需求及美化效果。
如果你是初次使用,建立利用各種免費(fèi)的模板及插件,這樣可以迅速建站,等熟悉一段時(shí)間后,再從代碼及各種資源上進(jìn)行優(yōu)化。
如何讓各大搜索引擎搜索收錄到剛建的wordpress網(wǎng)站?
1.開始的時(shí)候網(wǎng)站都打不開你是怎么認(rèn)為“建好了”
2.域名不備案也可以用,域名也不需要備案,只是如果服務(wù)器在內(nèi)地需要備案。
3.只要你網(wǎng)站robots.txt沒有禁止搜索引擎訪問,搜索引擎就會訪問你的網(wǎng)站,但是訪問不等于收錄。
4.想被收錄不需要添加什么文件和代碼,正常更新網(wǎng)站內(nèi)容做好宣傳就可以。
5.一般一天到一個(gè)月,超過一個(gè)月就要找原因了。
6.不要糾結(jié)收錄成功率,要更在意真實(shí)流量。
測試的網(wǎng)站不想被百度抓取?
有些站長比較喜歡將站點(diǎn)上線測試(不喜歡在本地測試),但是又不想被百度等搜索引擎抓取,那么應(yīng)該怎么暫時(shí)屏蔽呢?今天boke112就跟大家簡單介紹幾種方法。
方法一:WordPress站點(diǎn)的直接后臺設(shè)置WordPress站點(diǎn)可以直接登錄站點(diǎn)后臺 >> 設(shè)置 >> 閱讀 >> 勾選“建議搜索引擎不索引本站點(diǎn)”并點(diǎn)擊【保存更改】即可。
方法二:通過robots.txt禁止直接在網(wǎng)站根目錄中新建一個(gè)robots.txt文件,然后在文件中添加以下代碼:
User-Agent: *
Disallow: /
方法三:通過noindex標(biāo)記來禁止直接在站點(diǎn)的頭文件header.php文件中添加以下代碼:
<meta name="robots" content="noindex" >
方法四:通過PHP代碼禁止(WordPress站點(diǎn)為例)將以下代碼添加到主題目錄的functions.php當(dāng)中:
ob_start("Deny_Spider_Advanced");
function Deny_Spider_Advanced() {
$UA = $_SERVER['HTTP_USER_AGENT'];
$Spider_UA = '/(spider|bot|)/i'; //定義需要禁止的蜘蛛U(xiǎn)A,一般是spider和bot
//如果檢測到UA不為空而且發(fā)現(xiàn)是蜘蛛則返回404
if($UA && preg_match_all($Spider_UA,$UA)) {
header('HTTP/1.1 403 Forbidden');
header("status: 403 Forbidden");
}
}
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開即可。
方法五:Nginx禁止在server{}中添加以下代碼:
#如果抓取的UA中含有spider或bot時(shí)返回403
if ($http_user_agent ~* "spider|bot") {
return 403; #如果是刪除已收錄的,則可以返回404
break;
}
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開即可。
方法六:Apache禁止在.htaccess中添加以下代碼:
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (^$|spider|bot) [NC]
RewriteRule ^(.*)$ - [F]
可以自行替換或添加以上的spider|bot,多個(gè)用|隔開即可。
總結(jié)
理論上以上6種方法都有效,建議找適合自己站點(diǎn)的一種辦法來使用即可。一般采用方法二比較普遍,如果能夠結(jié)合方法五或六來使用估計(jì)效果更佳。