Như chúng ta đã đề cập trong Chương 1 , công cụ tìm kiếm là máy trả lời. Chúng tồn tại để khám phá, hiểu và tổ chức nội dung của intern...
Như chúng ta đã đề cập trong Chương 1 , công cụ tìm kiếm là máy trả lời. Chúng tồn tại để khám phá, hiểu và tổ chức nội dung của internet nhằm cung cấp các kết quả phù hợp nhất cho các câu hỏi mà người tìm kiếm đang đặt ra.
Để hiển thị trong kết quả tìm kiếm, trước tiên nội dung của bạn cần phải hiển thị cho các công cụ tìm kiếm. Đây được cho là phần quan trọng nhất của câu đố SEO: Nếu không thể tìm thấy trang web của bạn, bạn sẽ không bao giờ xuất hiện trong SERPs (Trang kết quả của công cụ tìm kiếm).
Công cụ tìm kiếm hoạt động như thế nào?
Công cụ tìm kiếm hoạt động thông qua ba chức năng chính:
- Thu thập thông tin: Tìm kiếm nội dung trên Internet, xem qua mã / nội dung cho từng URL mà họ tìm thấy.
- Lập chỉ mục: Lưu trữ và sắp xếp nội dung được tìm thấy trong quá trình thu thập thông tin. Khi một trang đã có trong chỉ mục, nó sẽ được hiển thị do kết quả của các truy vấn có liên quan.
- Xếp hạng: Cung cấp các phần nội dung sẽ trả lời tốt nhất cho truy vấn của người tìm kiếm, có nghĩa là các kết quả được sắp xếp theo thứ tự phù hợp nhất đến ít liên quan nhất.
Công cụ tìm kiếm thu thập thông tin là gì?
Thu thập thông tin là quá trình khám phá trong đó các công cụ tìm kiếm cử ra một nhóm rô bốt (được gọi là trình thu thập thông tin hoặc trình thu thập thông tin) để tìm nội dung mới và cập nhật. Nội dung có thể khác nhau - có thể là trang web, hình ảnh, video, PDF, v.v. - nhưng bất kể định dạng nào, nội dung đều được khám phá bởi các liên kết.
Từ đó có nghĩa là gì?
Googlebot bắt đầu bằng cách tìm nạp một vài trang web, sau đó đi theo các liên kết trên các trang web đó để tìm các URL mới. Bằng cách nhảy dọc theo đường dẫn liên kết này, trình thu thập thông tin có thể tìm thấy nội dung mới và thêm nội dung đó vào chỉ mục của họ có tên Caffeine - một cơ sở dữ liệu khổng lồ về các URL được phát hiện - để sau đó được truy xuất khi người tìm kiếm đang tìm kiếm thông tin rằng nội dung trên URL đó là phù hợp tốt cho.
Chỉ mục công cụ tìm kiếm là gì?
Các công cụ tìm kiếm xử lý và lưu trữ thông tin mà họ tìm thấy trong một chỉ mục, một cơ sở dữ liệu khổng lồ về tất cả nội dung mà họ đã khám phá và cho là đủ tốt để phục vụ tối đa cho người tìm kiếm.
Xếp hạng công cụ tìm kiếm
Khi ai đó thực hiện tìm kiếm, các công cụ tìm kiếm sẽ lùng sục chỉ mục của họ để tìm nội dung có liên quan cao và sau đó đặt hàng nội dung đó với hy vọng giải quyết được truy vấn của người tìm kiếm. Thứ tự kết quả tìm kiếm theo mức độ liên quan được gọi là xếp hạng. Nói chung, bạn có thể giả định rằng một trang web được xếp hạng càng cao, thì công cụ tìm kiếm càng tin rằng trang web đó có liên quan đến truy vấn.
Có thể chặn trình thu thập thông tin của công cụ tìm kiếm khỏi một phần hoặc toàn bộ trang web của bạn hoặc hướng dẫn các công cụ tìm kiếm tránh lưu trữ một số trang nhất định trong chỉ mục của chúng. Mặc dù có thể có lý do để làm điều này, nhưng nếu bạn muốn nội dung của mình được người tìm kiếm tìm thấy, trước tiên bạn phải đảm bảo rằng trình thu thập thông tin có thể truy cập được nội dung đó và có thể lập chỉ mục. Nếu không, nó tốt như vô hình.
Đến cuối chương này, bạn sẽ có bối cảnh cần thiết để làm việc với công cụ tìm kiếm, thay vì chống lại nó!
In SEO, not all search engines are equal
Crawling: Can search engines find your pages?
As you've just learned, making sure your site gets crawled and indexed is a prerequisite to showing up in the SERPs. If you already have a website, it might be a good idea to start off by seeing how many of your pages are in the index. This will yield some great insights into whether Google is crawling and finding all the pages you want it to, and none that you don’t.
One way to check your indexed pages is "site:yourdomain.com", an advanced search operator. Head to Google and type "site:yourdomain.com" into the search bar. This will return results Google has in its index for the site specified:

Số lượng kết quả mà Google hiển thị (xem “Về kết quả XX” ở trên) không chính xác, nhưng nó cung cấp cho bạn một ý tưởng chắc chắn về những trang nào được lập chỉ mục trên trang web của bạn và cách chúng hiện đang hiển thị trong kết quả tìm kiếm.
Để có kết quả chính xác hơn, hãy theo dõi và sử dụng báo cáo Trạng thái lập chỉ mục trong Google Search Console. Bạn có thể đăng ký tài khoản Google Search Console miễn phí nếu bạn hiện chưa có. Với công cụ này, bạn có thể gửi các sơ đồ trang web cho trang web của mình và theo dõi xem có bao nhiêu trang đã gửi đã thực sự được thêm vào chỉ mục của Google, trong số những thứ khác.
Nếu bạn không hiển thị ở bất kỳ đâu trong kết quả tìm kiếm, có một số lý do có thể xảy ra:
- Trang web của bạn là thương hiệu mới và chưa được thu thập thông tin.
- Trang web của bạn không được liên kết đến từ bất kỳ trang web bên ngoài nào.
- Điều hướng trên trang web của bạn khiến rô bốt khó thu thập dữ liệu một cách hiệu quả.
- Trang web của bạn chứa một số mã cơ bản được gọi là chỉ thị trình thu thập thông tin đang chặn các công cụ tìm kiếm.
- Trang web của bạn đã bị Google phạt vì các chiến thuật spam.
Cho các công cụ tìm kiếm biết cách thu thập dữ liệu trang web của bạn
Nếu bạn đã sử dụng Google Search Console hoặc toán tử tìm kiếm nâng cao “site: domain.com” và nhận thấy rằng một số trang quan trọng của bạn bị thiếu trong chỉ mục và / hoặc một số trang không quan trọng của bạn đã bị lập chỉ mục nhầm, bạn có thể thực hiện một số cách tối ưu hóa triển khai để hướng dẫn Googlebot tốt hơn cách bạn muốn nội dung web của mình được thu thập thông tin. Nói với các công cụ tìm kiếm cách thu thập dữ liệu trang web của bạn có thể giúp bạn kiểm soát tốt hơn những gì kết thúc trong chỉ mục.
XEM NHỮNG TRANG NÀO GOOGLE CÓ THỂ THU THẬP THÔNG TIN BẰNG MOZ PRO
Moz Pro có thể xác định các vấn đề với khả năng thu thập thông tin của trang web của bạn, từ các vấn đề nghiêm trọng về trình thu thập thông tin chặn Google đến các vấn đề nội dung ảnh hưởng đến thứ hạng. Hãy dùng thử miễn phí và bắt đầu khắc phục sự cố ngay hôm nay:
Hầu hết mọi người đều nghĩ đến việc đảm bảo Google có thể tìm thấy các trang quan trọng của họ, nhưng thật dễ dàng quên rằng có những trang mà bạn không muốn Googlebot tìm thấy. Chúng có thể bao gồm những thứ như URL cũ có nội dung mỏng, URL trùng lặp (chẳng hạn như thông số sắp xếp và lọc cho thương mại điện tử), các trang mã khuyến mại đặc biệt, trang thử nghiệm hoặc phân đoạn, v.v.
Để hướng Googlebot khỏi các trang và phần nhất định trên trang web của bạn, hãy sử dụng robots.txt.
Robots.txt
Tệp Robots.txt được đặt trong thư mục gốc của các trang web (ví dụ: yourdomain.com/robots.txt) và đề xuất những phần nào của công cụ tìm kiếm trang web của bạn nên và không nên thu thập dữ liệu, cũng như tốc độ chúng thu thập dữ liệu trang web của bạn , thông qua các lệnh robots.txt cụ thể .
Cách Googlebot xử lý tệp robots.txt
- Nếu Googlebot không thể tìm thấy tệp robots.txt cho một trang web, nó sẽ tiến hành thu thập dữ liệu trang web.
- Nếu Googlebot tìm thấy tệp robots.txt cho một trang web, nó thường sẽ tuân theo các đề xuất và tiến hành thu thập dữ liệu trang web.
- Nếu Googlebot gặp lỗi khi cố gắng truy cập vào tệp robots.txt của trang web và không thể xác định xem tệp đó có tồn tại hay không, nó sẽ không thu thập dữ liệu trang web.
Tối ưu hóa cho ngân sách thu thập thông tin!
Không phải tất cả các rô bốt web đều tuân theo robots.txt. Những người có ý định xấu (ví dụ, kẻ phá hoại địa chỉ e-mail) xây dựng các bot không tuân theo giao thức này. Trên thực tế, một số kẻ xấu sử dụng tệp robots.txt để tìm nơi bạn đã định vị nội dung riêng tư của mình. Mặc dù có vẻ hợp lý khi chặn trình thu thập thông tin khỏi các trang riêng tư như trang đăng nhập và quản trị để chúng không hiển thị trong chỉ mục, nhưng việc đặt vị trí của các URL đó trong tệp robots.txt có thể truy cập công khai cũng có nghĩa là những người có ý định xấu có thể dễ dàng tìm thấy chúng hơn. Tốt hơn là NoIndex các trang này và đặt chúng sau biểu mẫu đăng nhập hơn là đặt chúng vào tệp robots.txt của bạn.
Bạn có thể đọc thêm chi tiết về điều này trong phần robots.txt của Trung tâm Kiến thức của chúng tôi .
Xác định các tham số URL trong GSC
Một số trang web (phổ biến nhất với thương mại điện tử) cung cấp cùng một nội dung trên nhiều URL khác nhau bằng cách thêm các thông số nhất định vào URL. Nếu bạn đã từng mua sắm trực tuyến, bạn có thể đã thu hẹp tìm kiếm của mình thông qua các bộ lọc. Ví dụ: bạn có thể tìm kiếm “giày” trên Amazon, sau đó tinh chỉnh tìm kiếm của mình theo kích cỡ, màu sắc và kiểu dáng. Mỗi lần bạn tinh chỉnh, URL sẽ thay đổi một chút:
https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id= 32 & highlight = green + dress & cat_id = 1 & sessionid = 123 $ affid = 43Làm cách nào để Google biết phiên bản nào của URL để phân phát cho người tìm kiếm? Google thực hiện công việc khá tốt trong việc tự tìm ra URL đại diện, nhưng bạn có thể sử dụng tính năng Tham số URL trong Google Search Console để cho Google biết chính xác cách bạn muốn họ xử lý các trang của mình. Nếu bạn sử dụng tính năng này để thông báo cho Googlebot “không thu thập thông tin URL nào có thông số ____” thì về cơ bản, bạn đang yêu cầu ẩn nội dung này khỏi Googlebot, điều này có thể dẫn đến việc xóa các trang đó khỏi kết quả tìm kiếm. Đó là những gì bạn muốn nếu các thông số đó tạo ra các trang trùng lặp, nhưng không lý tưởng nếu bạn muốn các trang đó được lập chỉ mục.
Trình thu thập thông tin có thể tìm thấy tất cả nội dung quan trọng của bạn không?
Bây giờ bạn đã biết một số chiến thuật để đảm bảo trình thu thập thông tin của công cụ tìm kiếm tránh xa nội dung không quan trọng của bạn, hãy cùng tìm hiểu về các tối ưu hóa có thể giúp Googlebot tìm thấy các trang quan trọng của bạn.
Đôi khi công cụ tìm kiếm có thể tìm thấy các phần của trang web của bạn bằng cách thu thập thông tin, nhưng các trang hoặc phần khác có thể bị che khuất vì lý do này hay lý do khác. Điều quan trọng là đảm bảo rằng các công cụ tìm kiếm có thể khám phá tất cả nội dung bạn muốn lập chỉ mục chứ không chỉ trang chủ của bạn.
Hãy tự hỏi bản thân mình điều này: Bot có thể thu thập thông tin qua trang web của bạn không, chứ không chỉ tới nó?
Nội dung của bạn có ẩn sau các biểu mẫu đăng nhập không?
Nếu bạn yêu cầu người dùng đăng nhập, điền vào biểu mẫu hoặc trả lời khảo sát trước khi truy cập nội dung nhất định, các công cụ tìm kiếm sẽ không nhìn thấy các trang được bảo vệ đó. Trình thu thập thông tin chắc chắn sẽ không đăng nhập.
Bạn có đang dựa vào các hình thức tìm kiếm?
Robot không thể sử dụng các biểu mẫu tìm kiếm. Một số cá nhân tin rằng nếu họ đặt một hộp tìm kiếm trên trang web của họ, các công cụ tìm kiếm sẽ có thể tìm thấy mọi thứ mà khách truy cập của họ tìm kiếm.
Is text hidden within non-text content?
Non-text media forms (images, video, GIFs, etc.) should not be used to display text that you wish to be indexed. While search engines are getting better at recognizing images, there's no guarantee they will be able to read and understand it just yet. It's always best to add text within the <HTML> markup of your webpage.
Can search engines follow your site navigation?
Just as a crawler needs to discover your site via links from other sites, it needs a path of links on your own site to guide it from page to page. If you’ve got a page you want search engines to find but it isn’t linked to from any other pages, it’s as good as invisible. Many sites make the critical mistake of structuring their navigation in ways that are inaccessible to search engines, hindering their ability to get listed in search results.
Common navigation mistakes that can keep crawlers from seeing all of your site:
- Having a mobile navigation that shows different results than your desktop navigation
- Any type of navigation where the menu items are not in the HTML, such as JavaScript-enabled navigations. Google has gotten much better at crawling and understanding Javascript, but it’s still not a perfect process. The more surefire way to ensure something gets found, understood, and indexed by Google is by putting it in the HTML.
- Personalization, or showing unique navigation to a specific type of visitor versus others, could appear to be cloaking to a search engine crawler
- Forgetting to link to a primary page on your website through your navigation — remember, links are the paths crawlers follow to new pages!
This is why it's essential that your website has a clear navigation and helpful URL folder structures.
Do you have clean information architecture?
Information architecture is the practice of organizing and labeling content on a website to improve efficiency and findability for users. The best information architecture is intuitive, meaning that users shouldn't have to think very hard to flow through your website or to find something.
Are you utilizing sitemaps?
A sitemap is just what it sounds like: a list of URLs on your site that crawlers can use to discover and index your content. One of the easiest ways to ensure Google is finding your highest priority pages is to create a file that meets Google's standards and submit it through Google Search Console. While submitting a sitemap doesn’t replace the need for good site navigation, it can certainly help crawlers follow a path to all of your important pages.
If your site doesn't have any other sites linking to it, you still might be able to get it indexed by submitting your XML sitemap in Google Search Console. There's no guarantee they'll include a submitted URL in their index, but it's worth a try!
Are crawlers getting errors when they try to access your URLs?
In the process of crawling the URLs on your site, a crawler may encounter errors. You can go to Google Search Console’s “Crawl Errors” report to detect URLs on which this might be happening - this report will show you server errors and not found errors. Server log files can also show you this, as well as a treasure trove of other information such as crawl frequency, but because accessing and dissecting server log files is a more advanced tactic, we won’t discuss it at length in the Beginner’s Guide, although you can learn more about it here.
Before you can do anything meaningful with the crawl error report, it’s important to understand server errors and "not found" errors.
4xx Codes: When search engine crawlers can’t access your content due to a client error
4xx errors are client errors, meaning the requested URL contains bad syntax or cannot be fulfilled. One of the most common 4xx errors is the “404 – not found” error. These might occur because of a URL typo, deleted page, or broken redirect, just to name a few examples. When search engines hit a 404, they can’t access the URL. When users hit a 404, they can get frustrated and leave.
5xx Codes: When search engine crawlers can’t access your content due to a server error
5xx errors are server errors, meaning the server the web page is located on failed to fulfill the searcher or search engine’s request to access the page. In Google Search Console’s “Crawl Error” report, there is a tab dedicated to these errors. These typically happen because the request for the URL timed out, so Googlebot abandoned the request. View Google’s documentation to learn more about fixing server connectivity issues.
Thankfully, there is a way to tell both searchers and search engines that your page has moved — the 301 (permanent) redirect.
Create custom 404 pages!
Giả sử bạn di chuyển một trang từ example.com/young-dogs/ sang example.com/puppies/ . Công cụ tìm kiếm và người dùng cần một cầu nối để chuyển từ URL cũ sang URL mới. Cầu đó là chuyển hướng 301.
| Khi bạn triển khai 301: | Khi bạn không triển khai 301: | |
|---|---|---|
| Liên kết vốn chủ sở hữu | Chuyển vốn chủ sở hữu liên kết từ vị trí cũ của trang sang URL mới. | Nếu không có 301, quyền từ URL trước đó sẽ không được chuyển cho phiên bản mới của URL. |
| Lập chỉ mục | Giúp Google tìm và lập chỉ mục phiên bản mới của trang. | Chỉ riêng sự hiện diện của lỗi 404 trên trang web của bạn không gây hại đến hiệu suất tìm kiếm, nhưng việc để các trang 404 được xếp hạng / được quản lý có thể khiến chúng rơi ra khỏi chỉ mục, với thứ hạng và lưu lượng truy cập đi cùng với chúng - thật tuyệt vời! |
| Kinh nghiệm người dùng | Đảm bảo người dùng tìm thấy trang mà họ đang tìm kiếm. | Cho phép khách truy cập của bạn nhấp vào các liên kết chết sẽ đưa họ đến các trang lỗi thay vì trang dự định, điều này có thể gây khó chịu. |
Bản thân mã trạng thái 301 có nghĩa là trang đã vĩnh viễn chuyển đến một vị trí mới, vì vậy, hãy tránh chuyển hướng URL đến các trang không liên quan - những URL mà nội dung của URL cũ không thực sự tồn tại. Nếu một trang đang xếp hạng cho một truy vấn và bạn chuyển nó đến một URL có nội dung khác, nó có thể bị tụt hạng vì nội dung làm cho nó có liên quan đến truy vấn cụ thể đó không còn ở đó nữa. 301s rất mạnh mẽ - di chuyển URL một cách có trách nhiệm!
Bạn cũng có tùy chọn 302 chuyển hướng một trang, nhưng điều này nên được dành riêng cho các bước di chuyển tạm thời và trong trường hợp việc chuyển liên kết công bằng không phải là vấn đề đáng lo ngại. 302 giống như một con đường vòng. Bạn đang tạm thời thu hút lưu lượng truy cập qua một tuyến đường nhất định, nhưng nó sẽ không như vậy mãi mãi.
Xem ra cho các chuỗi chuyển hướng!
Khi bạn đã đảm bảo trang web của mình được tối ưu hóa cho khả năng thu thập thông tin, yêu cầu tiếp theo của doanh nghiệp là đảm bảo nó có thể được lập chỉ mục.
Lập chỉ mục: Công cụ tìm kiếm diễn giải và lưu trữ các trang của bạn như thế nào?
Once you’ve ensured your site has been crawled, the next order of business is to make sure it can be indexed. That’s right — just because your site can be discovered and crawled by a search engine doesn’t necessarily mean that it will be stored in their index. In the previous section on crawling, we discussed how search engines discover your web pages. The index is where your discovered pages are stored. After a crawler finds a page, the search engine renders it just like a browser would. In the process of doing so, the search engine analyzes that page's contents. All of that information is stored in its index.
Read on to learn about how indexing works and how you can make sure your site makes it into this all-important database.
Can I see how a Googlebot crawler sees my pages?
Yes, the cached version of your page will reflect a snapshot of the last time Googlebot crawled it.
Google crawls and caches web pages at different frequencies. More established, well-known sites that post frequently like https://www.nytimes.com will be crawled more frequently than the much-less-famous website for Roger the Mozbot’s side hustle, http://www.rogerlovescupcakes.... (if only it were real…)
You can view what your cached version of a page looks like by clicking the drop-down arrow next to the URL in the SERP and choosing "Cached":

You can also view the text-only version of your site to determine if your important content is being crawled and cached effectively.
Are pages ever removed from the index?
Yes, pages can be removed from the index! Some of the main reasons why a URL might be removed include:
- The URL is returning a "not found" error (4XX) or server error (5XX) – This could be accidental (the page was moved and a 301 redirect was not set up) or intentional (the page was deleted and 404ed in order to get it removed from the index)
- The URL had a noindex meta tag added – This tag can be added by site owners to instruct the search engine to omit the page from its index.
- The URL has been manually penalized for violating the search engine’s Webmaster Guidelines and, as a result, was removed from the index.
- The URL has been blocked from crawling with the addition of a password required before visitors can access the page.
If you believe that a page on your website that was previously in Google’s index is no longer showing up, you can use the URL Inspection tool to learn the status of the page, or use Fetch as Google which has a "Request Indexing" feature to submit individual URLs to the index. (Bonus: GSC’s “fetch” tool also has a “render” option that allows you to see if there are any issues with how Google is interpreting your page).
Tell search engines how to index your site
Robots meta directives
Meta directives (or "meta tags") are instructions you can give to search engines regarding how you want your web page to be treated.
You can tell search engine crawlers things like "do not index this page in search results" or "don’t pass any link equity to any on-page links". These instructions are executed via Robots Meta Tags in the <head> of your HTML pages (most commonly used) or via the X-Robots-Tag in the HTTP header.
Robots meta tag
The robots meta tag can be used within the <head> of the HTML of your webpage. It can exclude all or specific search engines. The following are the most common meta directives, along with what situations you might apply them in.
index/noindex tells the engines whether the page should be crawled and kept in a search engines' index for retrieval. If you opt to use "noindex," you’re communicating to crawlers that you want the page excluded from search results. By default, search engines assume they can index all pages, so using the "index" value is unnecessary.
- When you might use: You might opt to mark a page as "noindex" if you’re trying to trim thin pages from Google’s index of your site (ex: user generated profile pages) but you still want them accessible to visitors.
follow/nofollow tells search engines whether links on the page should be followed or nofollowed. “Follow” results in bots following the links on your page and passing link equity through to those URLs. Or, if you elect to employ "nofollow," the search engines will not follow or pass any link equity through to the links on the page. By default, all pages are assumed to have the "follow" attribute.
- When you might use: nofollow is often used together with noindex when you’re trying to prevent a page from being indexed as well as prevent the crawler from following links on the page.
noarchive is used to restrict search engines from saving a cached copy of the page. By default, the engines will maintain visible copies of all pages they have indexed, accessible to searchers through the cached link in the search results.
- When you might use: If you run an e-commerce site and your prices change regularly, you might consider the noarchive tag to prevent searchers from seeing outdated pricing.
Here’s an example of a meta robots noindex, nofollow tag:
<!DOCTYPE html><html><head><meta name="robots" content="noindex, nofollow" /></head><body>...</body></html>
Ví dụ này loại trừ tất cả các công cụ tìm kiếm lập chỉ mục trang và theo dõi bất kỳ liên kết trên trang nào. Nếu bạn muốn loại trừ nhiều trình thu thập thông tin, chẳng hạn như googlebot và bing, bạn có thể sử dụng nhiều thẻ loại trừ rô bốt.
Các chỉ thị meta ảnh hưởng đến việc lập chỉ mục, không ảnh hưởng đến việc thu thập thông tin
X-Robots-Tag
Thẻ x-robots được sử dụng trong tiêu đề HTTP của URL của bạn, mang lại tính linh hoạt và chức năng hơn các thẻ meta nếu bạn muốn chặn các công cụ tìm kiếm trên quy mô lớn vì bạn có thể sử dụng các biểu thức chính quy, chặn các tệp không phải HTML và áp dụng các thẻ noindex trên trang web .
Ví dụ: bạn có thể dễ dàng loại trừ toàn bộ thư mục hoặc loại tệp (như moz.com/no-bake/old-recipes-to-noindex):
<Files ~ “\ /? No \ -bake \ /.*”> Bộ tiêu đề X-Robots-Tag “noindex, nofollow” </Files>Hoặc các loại tệp cụ thể (như PDF):
<Files ~ “\ .pdf $”> Bộ tiêu đề X-Robots-Tag “noindex, nofollow” </Files>Để biết thêm thông tin về Thẻ Meta Robot, hãy khám phá Thông số kỹ thuật về Thẻ Meta Robot của Google .
Mẹo WordPress:
Hiểu các cách khác nhau mà bạn có thể ảnh hưởng đến việc thu thập thông tin và lập chỉ mục sẽ giúp bạn tránh được những cạm bẫy phổ biến có thể ngăn cản việc tìm thấy các trang quan trọng của bạn.
Xếp hạng: Công cụ tìm kiếm xếp hạng URL như thế nào?
Làm cách nào để các công cụ tìm kiếm đảm bảo rằng khi ai đó nhập truy vấn vào thanh tìm kiếm, họ sẽ nhận được các kết quả có liên quan? Quá trình đó được gọi là xếp hạng, hoặc thứ tự các kết quả tìm kiếm theo liên quan nhất đến ít liên quan nhất đến một truy vấn cụ thể.
Để xác định mức độ liên quan, các công cụ tìm kiếm sử dụng các thuật toán, một quy trình hoặc công thức mà thông tin được lưu trữ được truy xuất và sắp xếp theo những cách có ý nghĩa. Các thuật toán này đã trải qua nhiều thay đổi trong nhiều năm để cải thiện chất lượng kết quả tìm kiếm. Ví dụ, Google thực hiện các điều chỉnh thuật toán mỗi ngày - một số trong số các bản cập nhật này là những chỉnh sửa nhỏ về chất lượng, trong khi những bản cập nhật khác là các bản cập nhật thuật toán cốt lõi / rộng được triển khai để giải quyết một vấn đề cụ thể, như Penguin để giải quyết spam liên kết. Kiểm tra Lịch sử thay đổi thuật toán Google của chúng tôi để biết danh sách các bản cập nhật của Google đã được xác nhận và chưa được xác nhận từ năm 2000.
Tại sao thuật toán thay đổi thường xuyên như vậy? Có phải Google chỉ đang cố gắng giữ chân chúng ta không? Mặc dù Google không phải lúc nào cũng tiết lộ chi tiết cụ thể về lý do tại sao họ làm những gì họ làm, chúng tôi biết rằng mục tiêu của Google khi thực hiện các điều chỉnh thuật toán là cải thiện chất lượng tìm kiếm tổng thể. Đó là lý do tại sao, để trả lời các câu hỏi cập nhật thuật toán, Google sẽ trả lời bằng một số thứ như: "Chúng tôi luôn cập nhật chất lượng." Điều này cho thấy rằng, nếu trang web của bạn bị ảnh hưởng sau khi điều chỉnh thuật toán, hãy so sánh nó với Nguyên tắc chất lượng của Google hoặc Nguyên tắc đánh giá chất lượng tìm kiếm , cả hai đều rất rõ ràng về những gì công cụ tìm kiếm muốn.
Công cụ tìm kiếm muốn gì?
Các công cụ tìm kiếm luôn mong muốn điều tương tự: cung cấp câu trả lời hữu ích cho các câu hỏi của người tìm kiếm ở các định dạng hữu ích nhất. Nếu điều đó đúng, thì tại sao SEO bây giờ lại khác so với những năm trước?
Hãy nghĩ về điều đó khi ai đó học một ngôn ngữ mới.
Lúc đầu, sự hiểu biết của họ về ngôn ngữ này rất thô sơ - “See Spot Run”. Theo thời gian, sự hiểu biết của họ bắt đầu sâu sắc hơn, và họ học ngữ nghĩa - ý nghĩa đằng sau ngôn ngữ và mối quan hệ giữa các từ và cụm từ. Cuối cùng, với đủ thực hành, học sinh biết ngôn ngữ đủ tốt để thậm chí hiểu sắc thái, và có thể cung cấp câu trả lời cho các câu hỏi thậm chí mơ hồ hoặc không đầy đủ.
Khi các công cụ tìm kiếm mới bắt đầu học ngôn ngữ của chúng ta, việc đánh lừa hệ thống bằng cách sử dụng các thủ thuật và chiến thuật thực sự đi ngược lại với các nguyên tắc về chất lượng sẽ dễ dàng hơn nhiều. Lấy ví dụ như nhồi nhét từ khóa. Nếu bạn muốn xếp hạng cho một từ khóa cụ thể như “chuyện cười vui nhộn”, bạn có thể thêm các từ “chuyện cười vui nhộn” nhiều lần vào trang của mình và tô đậm, với hy vọng tăng thứ hạng của bạn cho cụm từ đó:
Chào mừng bạn đến với những câu chuyện cười vui nhộn ! Chúng tôi kể những câu chuyện cười hài hước nhất trên thế giới. Những trò đùa vui nhộn và vui nhộn. Trò đùa vui nhộn của bạn đang chờ đợi. Hãy ngồi lại và đọc những câu chuyện cười vui nhộn vì những câu chuyện cười hài hước có thể khiến bạn vui vẻ và hài hước hơn . Một số câu chuyện cười vui nhộn được yêu thích nhất .
Chiến thuật này tạo ra trải nghiệm người dùng tồi tệ và thay vì cười vào những trò đùa hài hước, mọi người lại bị tấn công bởi văn bản khó đọc, khó đọc. Nó có thể đã hoạt động trong quá khứ, nhưng đây không bao giờ là điều mà các công cụ tìm kiếm muốn.
KIỂM TRA XẾP HẠNG TRANG WEB CỦA BẠN TRONG MOZ PRO
Bạn có thể kiểm tra thứ hạng trang web của mình và theo dõi chúng theo thời gian trong Moz Pro. Khám phá các khả năng với bản dùng thử miễn phí 30 ngày:
Vai trò của các liên kết trong SEO
Khi chúng ta nói về các liên kết, chúng ta có thể muốn nói đến hai điều. Liên kết ngược hoặc "liên kết trong nước" là liên kết từ các trang web khác trỏ đến trang web của bạn, trong khi liên kết nội bộ là liên kết trên trang web của riêng bạn trỏ đến các trang khác của bạn (trên cùng một trang web).
Các liên kết trong lịch sử đã đóng một vai trò lớn trong SEO. Ngay từ rất sớm, các công cụ tìm kiếm đã cần trợ giúp để tìm ra URL nào đáng tin cậy hơn những URL khác để giúp họ xác định cách xếp hạng kết quả tìm kiếm. Tính toán số lượng liên kết trỏ đến bất kỳ trang web nhất định nào đã giúp họ thực hiện điều này.
Các liên kết ngược hoạt động rất giống với các giới thiệu WoM (Word-of-Mouth) trong đời thực. Hãy lấy một quán cà phê giả định, Jenny's Coffee, làm ví dụ:
- Giới thiệu từ người khác = dấu hiệu tốt của thẩm quyền
- Ví dụ: Nhiều người khác nhau đều nói với bạn rằng Jenny's Coffee là quán ngon nhất trong thị trấn
- Giới thiệu từ chính bạn = thiên vị, vì vậy không phải là một dấu hiệu tốt của thẩm quyền
- Ví dụ: Jenny tuyên bố rằng Jenny's Coffee là quán ngon nhất trong thị trấn
- Giới thiệu từ các nguồn không liên quan hoặc chất lượng thấp = không phải là dấu hiệu tốt của thẩm quyền và thậm chí có thể khiến bạn bị gắn cờ vì spam
- Ví dụ: Jenny đã trả tiền để có những người chưa bao giờ đến quán cà phê của cô ấy nói cho người khác biết nó tốt như thế nào.
- Không có giới thiệu = thẩm quyền không rõ ràng
- Ví dụ: Jenny's Coffee có thể tốt, nhưng bạn không thể tìm thấy bất kỳ ai có ý kiến nên bạn không thể chắc chắn.
Đây là lý do tại sao PageRank được tạo. PageRank (một phần của thuật toán cốt lõi của Google) là một thuật toán phân tích liên kết được đặt tên theo một trong những người sáng lập của Google, Larry Page. PageRank ước tính tầm quan trọng của một trang web bằng cách đo lường chất lượng và số lượng các liên kết trỏ đến nó. Giả định rằng một trang web càng có liên quan, quan trọng và đáng tin cậy thì trang web đó sẽ kiếm được càng nhiều liên kết.
Bạn càng có nhiều liên kết ngược tự nhiên từ các trang web có thẩm quyền cao (đáng tin cậy), thì tỷ lệ cược của bạn càng cao để xếp hạng cao hơn trong kết quả tìm kiếm.
Vai trò của nội dung trong SEO
Sẽ không có điểm liên kết nào nếu chúng không hướng người tìm kiếm đến một thứ gì đó. Đó là một cái gì đó là nội dung! Nội dung không chỉ là lời nói; đó là bất cứ thứ gì được người tìm kiếm sử dụng - có nội dung video, nội dung hình ảnh và tất nhiên, văn bản. Nếu công cụ tìm kiếm là máy trả lời, thì nội dung là phương tiện mà công cụ cung cấp các câu trả lời đó.
Bất kỳ lúc nào ai đó thực hiện một tìm kiếm, có thể có hàng nghìn kết quả, vậy làm cách nào để các công cụ tìm kiếm quyết định trang nào mà người tìm kiếm sẽ tìm thấy có giá trị? Một phần quan trọng trong việc xác định vị trí trang của bạn sẽ xếp hạng cho một truy vấn nhất định là mức độ phù hợp của nội dung trên trang của bạn với mục đích của truy vấn. Nói cách khác, trang này có khớp với các từ đã được tìm kiếm và giúp hoàn thành nhiệm vụ mà người tìm kiếm đang cố gắng hoàn thành không?
Bởi vì điều này tập trung vào sự hài lòng của người dùng và hoàn thành nhiệm vụ, không có tiêu chuẩn nghiêm ngặt về thời lượng nội dung của bạn, số lần nội dung phải chứa một từ khóa hoặc những gì bạn đặt trong thẻ tiêu đề của mình. Tất cả những thứ đó có thể đóng một vai trò trong việc một trang hoạt động tốt như thế nào trong tìm kiếm, nhưng trọng tâm phải là những người dùng sẽ đọc nội dung.
Ngày nay, với hàng trăm hoặc thậm chí hàng nghìn tín hiệu xếp hạng, ba tín hiệu hàng đầu vẫn khá nhất quán: liên kết đến trang web của bạn (đóng vai trò là tín hiệu uy tín của bên thứ ba), nội dung trên trang (nội dung chất lượng đáp ứng ý định của người tìm kiếm) và RankBrain.
RankBrain là gì?
RankBrain là thành phần học máy của thuật toán cốt lõi của Google. Máy học là một chương trình máy tính tiếp tục cải thiện các dự đoán của nó theo thời gian thông qua các quan sát và dữ liệu đào tạo mới. Nói cách khác, nó luôn học hỏi và bởi vì nó luôn học hỏi, nên kết quả tìm kiếm sẽ không ngừng được cải thiện.
Ví dụ: nếu RankBrain nhận thấy một URL xếp hạng thấp hơn cung cấp kết quả tốt hơn cho người dùng so với các URL xếp hạng cao hơn, bạn có thể đặt cược rằng RankBrain sẽ điều chỉnh các kết quả đó, chuyển kết quả phù hợp hơn lên cao hơn và hạ cấp các trang ít liên quan hơn như một sản phẩm phụ.
Giống như hầu hết mọi thứ với công cụ tìm kiếm, chúng tôi không biết chính xác những gì bao gồm RankBrain, nhưng rõ ràng, những người ở Google cũng vậy .
Điều này có ý nghĩa gì đối với người làm SEO?
Bởi vì Google sẽ tiếp tục tận dụng RankBrain để quảng bá nội dung hữu ích, phù hợp nhất, chúng tôi cần tập trung vào việc thực hiện ý định của người tìm kiếm hơn bao giờ hết. Cung cấp thông tin và trải nghiệm tốt nhất có thể cho những người tìm kiếm có thể truy cập trang của bạn và bạn đã thực hiện một bước quan trọng đầu tiên để hoạt động tốt trong thế giới RankBrain.
Các chỉ số về mức độ tương tác: tương quan, quan hệ nhân quả hay cả hai?
Với xếp hạng của Google, các chỉ số tương tác rất có thể là mối tương quan một phần và một phần nhân quả.
Khi chúng tôi nói chỉ số tương tác, chúng tôi muốn nói đến dữ liệu đại diện cho cách người tìm kiếm tương tác với trang web của bạn từ kết quả tìm kiếm. Điều này bao gồm những thứ như:
- Số lần nhấp (lượt truy cập từ tìm kiếm)
- Thời gian trên trang (lượng thời gian khách truy cập đã dành trên một trang trước khi rời khỏi trang)
- Tỷ lệ thoát (tỷ lệ phần trăm của tất cả các phiên trang web mà người dùng chỉ xem một trang)
- Pogo-stick (nhấp vào một kết quả không phải trả tiền và sau đó nhanh chóng quay lại SERP để chọn một kết quả khác)
Nhiều bài kiểm tra, bao gồm cả cuộc khảo sát yếu tố xếp hạng của riêng Moz , đã chỉ ra rằng các chỉ số tương tác với thứ hạng cao hơn, nhưng quan hệ nhân quả đã được tranh luận sôi nổi. Các chỉ số tương tác tốt có phải chỉ là dấu hiệu của các trang web được xếp hạng cao không? Hay các trang web được xếp hạng cao bởi vì chúng sở hữu các chỉ số tương tác tốt?
Google đã nói gì
Mặc dù họ chưa bao giờ sử dụng thuật ngữ "tín hiệu xếp hạng trực tiếp", Google đã rõ ràng rằng họ hoàn toàn sử dụng dữ liệu nhấp chuột để sửa đổi SERP cho các truy vấn cụ thể.
Theo cựu Giám đốc Chất lượng Tìm kiếm của Google , Udi Manber:
“Bản thân thứ hạng bị ảnh hưởng bởi dữ liệu nhấp chuột. Nếu chúng tôi phát hiện ra rằng, đối với một truy vấn cụ thể, 80% người nhấp vào # 2 và chỉ 10% nhấp vào # 1, sau một thời gian, chúng tôi nhận ra có lẽ # 2 là thứ mọi người muốn, vì vậy chúng tôi sẽ chuyển nó. ”
Một nhận xét khác từ cựu kỹ sư của Google, Edmond Lau chứng thực điều này:
“Khá rõ ràng rằng bất kỳ công cụ tìm kiếm hợp lý nào sẽ sử dụng dữ liệu nhấp chuột trên kết quả của chính chúng để cung cấp lại xếp hạng nhằm cải thiện chất lượng kết quả tìm kiếm. Cơ chế thực tế về cách dữ liệu nhấp chuột được sử dụng thường là độc quyền, nhưng Google cho thấy rõ ràng rằng họ sử dụng dữ liệu nhấp chuột với các bằng sáng chế của mình trên các hệ thống như các mục nội dung được điều chỉnh xếp hạng. ”
Bởi vì Google cần duy trì và cải thiện chất lượng tìm kiếm, dường như không thể tránh khỏi các chỉ số tương tác hơn là tương quan, nhưng có vẻ như Google không gọi các chỉ số tương tác là "tín hiệu xếp hạng" vì những chỉ số đó được sử dụng để cải thiện chất lượng tìm kiếm và xếp hạng của các URL riêng lẻ chỉ là sản phẩm phụ của việc đó.
Những thử nghiệm nào đã xác nhận
Nhiều thử nghiệm khác nhau đã xác nhận rằng Google sẽ điều chỉnh thứ tự SERP để đáp ứng sự tương tác của người tìm kiếm:
- Thử nghiệm năm 2014 của Rand Fishkin đã dẫn đến kết quả thứ 7 tiến lên vị trí số 1 sau khi có khoảng 200 người nhấp vào URL từ SERP. Thật thú vị, việc cải thiện xếp hạng dường như được tách biệt với vị trí của những người đã truy cập liên kết. Vị trí xếp hạng tăng đột biến ở Hoa Kỳ, nơi có nhiều người tham gia, trong khi vị trí xếp hạng vẫn thấp hơn trên trang trong Google Canada, Google Úc, v.v.
- So sánh của Larry Kim về các trang hàng đầu và thời gian dừng trung bình của chúng trước và sau RankBrain dường như chỉ ra rằng thành phần học máy trong thuật toán của Google làm giảm vị trí xếp hạng của các trang mà mọi người không dành nhiều thời gian.
- Thử nghiệm của Darren Shaw đã cho thấy tác động của hành vi người dùng đối với kết quả tìm kiếm địa phương và gói bản đồ.
Vì các chỉ số tương tác của người dùng rõ ràng được sử dụng để điều chỉnh SERP về chất lượng và xếp hạng các thay đổi vị trí như một sản phẩm phụ, nên có thể an toàn khi nói rằng SEO nên tối ưu hóa cho sự tương tác . Sự tương tác không thay đổi chất lượng khách quan của trang web của bạn, mà là giá trị của bạn đối với người tìm kiếm so với các kết quả khác cho truy vấn đó. Đó là lý do tại sao, sau khi không có thay đổi nào đối với trang của bạn hoặc các liên kết ngược của nó, nó có thể giảm thứ hạng nếu hành vi của người tìm kiếm cho thấy họ thích các trang khác hơn.
Về mặt xếp hạng các trang web, số liệu tương tác hoạt động giống như một công cụ kiểm tra thực tế. Các yếu tố khách quan như liên kết và nội dung đầu tiên xếp hạng trang, sau đó là các chỉ số tương tác giúp Google điều chỉnh nếu họ không làm đúng.
Sự phát triển của kết quả tìm kiếm
Trở lại khi các công cụ tìm kiếm thiếu rất nhiều sự tinh vi như ngày nay, thuật ngữ “10 liên kết xanh” được đặt ra để mô tả cấu trúc phẳng của SERP. Bất kỳ khi nào một tìm kiếm được thực hiện, Google sẽ trả về một trang có 10 kết quả không phải trả tiền, mỗi kết quả có cùng một định dạng.

Trong bối cảnh tìm kiếm này, giữ vị trí số 1 là chén thánh của SEO. Nhưng rồi một điều gì đó đã xảy ra. Google đã bắt đầu thêm các kết quả ở các định dạng mới trên các trang kết quả tìm kiếm của họ, được gọi là các tính năng SERP . Một số tính năng SERP này bao gồm:
- Quảng cáo trả tiền
- Các đoạn trích nổi bật
- Mọi người cũng hỏi hộp
- Gói địa phương (bản đồ)
- Bảng tri thức
- Liên kết trang web
Và Google luôn thêm những cái mới. Họ thậm chí còn thử nghiệm với “SERP không kết quả”, một hiện tượng trong đó chỉ một kết quả từ Sơ đồ tri thức được hiển thị trên SERP mà không có kết quả nào bên dưới nó ngoại trừ một tùy chọn để “xem thêm kết quả”.
Việc bổ sung các tính năng này gây ra một số hoảng sợ ban đầu vì hai lý do chính. Đầu tiên, nhiều tính năng trong số này khiến kết quả không phải trả tiền bị đẩy xuống sâu hơn trên SERP. Một sản phẩm phụ khác là ít người tìm kiếm nhấp vào kết quả không phải trả tiền vì nhiều truy vấn hơn đang được trả lời trên chính SERP.
Vậy tại sao Google sẽ làm điều này? Tất cả quay trở lại trải nghiệm tìm kiếm. Hành vi của người dùng chỉ ra rằng một số truy vấn được các định dạng nội dung khác nhau đáp ứng tốt hơn. Lưu ý cách các loại tính năng SERP khác nhau khớp với các loại ý định truy vấn khác nhau.
| Mục đích truy vấn | Tính năng SERP có thể được kích hoạt |
|---|---|
| Thông tin | Đoạn trích nổi bật |
| Thông tin với một câu trả lời | Sơ đồ tri thức / câu trả lời tức thì |
| Địa phương | Gói bản đồ |
| Giao dịch | Mua sắm |
Chúng ta sẽ nói nhiều hơn về ý định trong Chương 3 , nhưng hiện tại, điều quan trọng là phải biết rằng câu trả lời có thể được gửi đến người tìm kiếm ở nhiều định dạng và cách bạn cấu trúc nội dung của mình có thể ảnh hưởng đến định dạng mà nó xuất hiện trong tìm kiếm.
Tìm kiếm bản địa hóa
Công cụ tìm kiếm như Google có chỉ mục độc quyền của riêng mình về danh sách doanh nghiệp địa phương, từ đó nó tạo ra các kết quả tìm kiếm địa phương.
Nếu bạn đang thực hiện công việc SEO địa phương cho một doanh nghiệp có vị trí thực tế mà khách hàng có thể ghé thăm (ví dụ: nha sĩ) hoặc cho một doanh nghiệp đi du lịch để thăm khách hàng của họ (ví dụ: thợ sửa ống nước), hãy đảm bảo rằng bạn xác nhận quyền sở hữu, xác minh và tối ưu hóa miễn phí Google Danh sách Doanh nghiệp của tôi .
Khi nói đến kết quả tìm kiếm được bản địa hóa, Google sử dụng ba yếu tố chính để xác định xếp hạng:
- Sự liên quan
- Khoảng cách
- Sự nổi bật
Sự liên quan
Mức độ liên quan là mức độ phù hợp của một doanh nghiệp địa phương với những gì người tìm kiếm đang tìm kiếm. Để đảm bảo rằng doanh nghiệp đang làm mọi thứ có thể để liên quan đến người tìm kiếm, hãy đảm bảo rằng thông tin của doanh nghiệp được điền đầy đủ và chính xác.
Khoảng cách
Google sử dụng vị trí địa lý của bạn để cung cấp cho bạn các kết quả địa phương tốt hơn. Kết quả tìm kiếm cục bộ cực kỳ nhạy cảm với vùng lân cận, đề cập đến vị trí của người tìm kiếm và / hoặc vị trí được chỉ định trong truy vấn (nếu người tìm kiếm bao gồm vị trí đó).
Kết quả tìm kiếm không phải trả tiền nhạy cảm với vị trí của người tìm kiếm, mặc dù hiếm khi được phát âm như trong kết quả gói cục bộ.
Sự nổi bật
Với sự nổi bật là một yếu tố, Google đang tìm cách thưởng cho các doanh nghiệp nổi tiếng trong thế giới thực. Ngoài sự nổi bật ngoại tuyến của một doanh nghiệp, Google cũng xem xét một số yếu tố trực tuyến để xác định xếp hạng địa phương, chẳng hạn như:
Nhận xét
Số lượng đánh giá trên Google mà một doanh nghiệp địa phương nhận được và cảm xúc của những đánh giá đó, có tác động đáng kể đến khả năng xếp hạng của họ trong kết quả địa phương.
Trích dẫn
"Trích dẫn doanh nghiệp" hoặc "danh sách doanh nghiệp" là tham chiếu dựa trên web đến "NAP" của doanh nghiệp địa phương (tên, địa chỉ, số điện thoại) trên nền tảng bản địa hóa (Yelp, Acxiom, YP, Infogroup, Localeze, v.v.) .
Thứ hạng địa phương bị ảnh hưởng bởi số lượng và tính nhất quán của các trích dẫn kinh doanh địa phương. Google lấy dữ liệu từ nhiều nguồn khác nhau để liên tục tạo chỉ mục doanh nghiệp địa phương của mình. Khi Google tìm thấy nhiều tham chiếu nhất quán đến tên, vị trí và số điện thoại của doanh nghiệp, điều đó sẽ củng cố "niềm tin" của Google về tính hợp lệ của dữ liệu đó. Sau đó, điều này dẫn đến việc Google có thể hiển thị doanh nghiệp với mức độ tin cậy cao hơn. Google cũng sử dụng thông tin từ các nguồn khác trên web, chẳng hạn như các liên kết và bài báo.
Xếp hạng không phải trả tiền
Các phương pháp hay nhất về SEO cũng áp dụng cho SEO địa phương, vì Google cũng xem xét vị trí của trang web trong kết quả tìm kiếm không phải trả tiền khi xác định xếp hạng địa phương.
Trong chương tiếp theo, bạn sẽ tìm hiểu các phương pháp hay nhất trên trang sẽ giúp Google và người dùng hiểu rõ hơn về nội dung của bạn.
[Bonus!] Tương tác tại địa phương
Mặc dù không được Google liệt kê như một yếu tố xếp hạng địa phương, nhưng vai trò của mức độ tương tác sẽ chỉ tăng lên khi thời gian trôi qua. Google tiếp tục làm phong phú thêm các kết quả địa phương bằng cách kết hợp dữ liệu trong thế giới thực như thời gian phổ biến để truy cập và thời lượng truy cập trung bình ...

... và thậm chí cung cấp cho người tìm kiếm khả năng đặt câu hỏi cho doanh nghiệp!

Không còn nghi ngờ gì nữa, hơn bao giờ hết, các kết quả địa phương đang bị ảnh hưởng bởi dữ liệu trong thế giới thực. Tính tương tác này là cách người tìm kiếm tương tác và phản hồi với các doanh nghiệp địa phương, thay vì thông tin thuần túy tĩnh (và có thể chơi trò chơi) như liên kết và trích dẫn.
Vì Google muốn cung cấp các doanh nghiệp địa phương tốt nhất, phù hợp nhất cho người tìm kiếm, nên việc sử dụng các chỉ số tương tác trong thời gian thực để xác định chất lượng và mức độ phù hợp là rất hợp lý.
COMMENTS