Hiển thị các bài đăng có nhãn seo. Hiển thị tất cả bài đăng
Hiển thị các bài đăng có nhãn seo. Hiển thị tất cả bài đăng

Thứ Ba, 6 tháng 3, 2012

Làm thế nào để website tăng lượng "hit"

Theo thống kê, trung bình 61% lượt truy cập vào một trang web là từ kết quả dẫn đường của máy tìm kiếm, trong đó Google chiếm tới 41% lưu lượng. Chính vì vậy, các công ty không ngừng đầu tư để dưa website của họ vào vị trí xếp hạng cao nhất có thể trong trang kết quả tìm kiếm và làm hình thành lên ngành tối ưu hóa máy tìm kiếm (SEO) trị giá nhiều tỷ USD. 

Tuy nhiên không có thủ thuật nào cụ thể để trang web có vị trí cao nhất trang kết quả tìm kiếm chính xác mà chỉ có kinh nghiệm thành thạo mới tìm giải pháp. Những kỹ thuật và phương pháp cơ bản sau đây sẽ giúp cho những ai mới làm quen với sân chơi SEO nắm được quy trình xử lý website trên máy tìm kiếm. 

Tối ưu hóa từ khóa 

Máy tìm kiếm sẽ không hiệu quả nếu bạn không xác định được cái gì cần tối ưu. Một số doanh nghiệp lựa chọn từ khóa thích hợp với ngành nghề kinh doanh nhưng điều đó lại trở lên khó khăn hơn với các siêu thị online với hàng ngàn chủng loại hàng hóa cung cấp khác nhau. Vì làm thế nào để tạo ra thuật ngữ tìm kiếm một cách cô đọng và hấp dẫn cho website. 

Trước hết, bạn nên lựa chọn những thuật ngữ có liên quan đến ngành kinh doanh của mình nhưng cũng đồng thời được nhiều người sử dụng thường xuyên nhất trên máy tìm kiếm. Cách nhanh nhất là bạn sử dụng công cụ thiết kế từ khóa sẵn có của máy tìm kiếm để xác định thuật ngữ hữu dụng. Công cụ Google Keyword Tool và SEO Book Keyword Suggestion Tool đều có thể đưa ra những thuật ngữ liên quan giúp bạn hoàn thành công việc một cách nhanh chóng và chính xác. 

Sử dụng các thuật ngữ tối ưu sẽ giúp cho máy tìm kiếm đưa đến cho website nhiều người truy cập và ngược lại dùng từ khóa mà không mấy ai nhập vào máy tìm kiếm thì đương nhiên sẽ ít người biết đến trang nhà của bạn. Vì vậy hãy thận trọng lựa chọn từ khóa tối ưu để thu hút được nhiều người quan tâm nhất. 

Đánh dấu tiêu đề và địa chỉ từng trang web 

Các chuyên gia thừa nhận việc đánh dấu tiêu đề mới là yếu tố cốt lõi SEO. Khi đặt chỉ số nội dung, máy tìm kiếm thường xử lý các từ xuất hiện trên thanh tiêu đề trình duyệt và coi đó là yếu tố quan trọng trên mỗi trang web. Vì vậy, bạn nên gắn thẻ tiêu đề cho trang web bằng từ khóa độc đáo. Giống như việc đặt tên cho cuốn sách thật hấp dẫn để các khách hàng tiềm năng chú ý tìm đến. 

Trước đây nhiều người cho rằng cấu trúc URL không quan trọng mà chỉ có nội dung trên trang mới thực sự cần thiết. Tuy nhiên, máy tìm kiếm có cơ chế tham chiếu những từ khóa ngay tại địa chỉ, thậm chí là cả từ khóa ở mỗi trang con. Để theo kịp kỹ thuật này, nhiều tờ báo từng sử dụng hệ thống đặt tiêu đề bằng chữ số nay chuyển sang đặt địa chỉ bằng chính tiêu đề bài viết. Chẳng hạn như bài báo trên PC World có tên "Quantum of Solace", truy cập tại URL là www.pcworld.com/quantum-of-solace thay vìwww.pcworld.com/11/&id=27 như trước đây. Theo VTC (PC World)

Thứ Năm, 23 tháng 12, 2010

Thuật toán tìm kiếm của Google, Bing, Yahoo! Search

{VnTim™} Google công bố 1 bài kết quả nghiên cứu về đánh giá hiệu quả của Sitemaps trong qui trình tìm kiếm "Research study of sitemap", trong đó họ đã hé lộ phần nào qui trình tìm kiếm như sau:

Thuật tuán tìm kiếm của Google , Bing, Yahoo

Qui trình index của Google

- Discovery :
đây là quá trình khai phá các trang web mới. Quá trình này được thực hiện thường xuyên. Tuy nhiên các con bọ không phải chạy theo các liên kết 1 cách lung tung hết từ trang web này nhảy qua trang web khác mà đi theo 1 thứ tự ưu tiên: Google trước hết sẽ ‘mò’ ra 1 bộ các trang web ‘nổi tiếng’ (cái này chắc nghĩa là PR cao), xong sẽ róc toàn bộ các liên kết ngoài từ các trang web nổi tiếng đó, cho vào 1 sọt riêng cấp1. Các trang web cấp 1 này lại được róc tiếp toàn bộ liên kết ngoài cho sọt cấp 2. Đám url cấp trên hết sẽ được ưu tiên quăng sang quá trình tiếp theo là Spam Filter.

- Sitemaps:

song song quá trình Discovery, Google cũng phát hiện web mới bằng cách xem xét các url được submit lên từ các qui trình submit Sitemaps, ví dụ như bằng robot.txt files, HTTP request hay Google Webmaster Tool.


- Spam Filter :
kết quả từ 2 quá trình trên đều được đưa vào bộ lọc spam, có nhiệm vụ phát hiện và loại bỏ các liên kết spam từ các bộ liên kết nhận được rồi mới chuyển sang quá trình kế tiếp.

- Web Crawler :

các con bọ của google sẽ nhận được bộ url sạch từ spam filter chuyển
qua, tạo ra các HTTP request theo yêu cầu ping Google của các website
rồi bắt đầu thực hiện quá trình thu (retrieve) dữ liệu trên các trang
đó. Lúc này các links lại tiếp tục được róc ra cho vào các sọt thứ cấp
chuyển trở lại bước Discovery. Tại đây con bọ web cũng bảo đảm sẽ quay
trở lại update trang web đã crawl theo yêu cầu về mặt tần suất.

- Indexer/Server :

tại đây, bộ phận index sẽ chịu trách nhiệm phân các trang được đưa sang thành từng nhóm khác nhau dựa trên các thông số chất lượng và xây dựng nên dữ liệu index cho các trang này.

- Server:
các dữ liệu index sẽ được lưu trữ tại đây để phục vụ cho yêu cầu của người dùng khi họ truy cập và tìm kiếm 1 từ khóa.
Ta rút ra được gì từ bài viết này của Google nhỉ? Theo tôi thì rất rất nhiều!
Đây chỉ mới là một đoạn ngắn trong báo cáo kết quả nghiên cứu
“Sitemaps : above and beyond the crawl duty” – một bài thật hấp dẫn!