News - Features - Downloads - Forum - Team - Support - Switch View: Screen
Login - Registrierung - Passwort vergessen

Antworten: 16
Seite [1]
wasgeht


Poststar





Beiträge: 648
# Thema - 13.10.2007 um 17:12 Uhr
wollte mal anfragen wie es mit den suchmaschinenbots aussieht

also online zb: 2 googlebots, msn-bot und was weis ich wer

quasi in: wer ist wo online



------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................
Inaktiv
fay-pain


Specialist




Beiträge: 2006
# Antwort: 1 - 13.10.2007 um 18:15 Uhr
wie meinst du das?^^
du willst wissen wo die bots sich befinden?
sprich auf welcher seite?
und das sie erkannt werden als bots? o.O


------------------
Manchmal hast du fay und machmal pain.
- hajo

Inaktiv
|
wasgeht
Thread-Ersteller


Poststar





Beiträge: 648
# Antwort: 2 - 13.10.2007 um 18:30 Uhr
index.php?mod=count&action=online

hab da manchmal 4-5 bots da, würde aber gerne wissen, ob es gäste sind oder such-bots


------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................


Inaktiv
|
wasgeht
Thread-Ersteller


Poststar





Beiträge: 648
# Antwort: 3 - 31.10.2007 um 04:36 Uhr
ist da schon was in arbeit?


------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................


Inaktiv
|
fay-pain


Specialist




Beiträge: 2006
# Antwort: 4 - 31.10.2007 um 04:54 Uhr
wieso in arbeit? o.O
es wird nicht technisch machbar sein, die bots haben genauso ips wie du und ich!
da kann man nicht unterscheiden...


------------------
Manchmal hast du fay und machmal pain.
- hajo

Inaktiv
|
wasgeht
Thread-Ersteller


Poststar





Beiträge: 648
# Antwort: 5 - 31.10.2007 um 06:45 Uhr
sagt dir die *Robots.txt* etwas?

wird bei nuke zb. verwendet

deshalb meine fragen

aber wenn es technisch nicht machbar ist, ists auch ok

kann denn ja geclosed werden


------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................


Inaktiv
|
borchi


Geekboy



Herkunft: Berlin
Beiträge: 1231
# Antwort: 6 - 31.10.2007 um 09:42 Uhr
Die robots.txt kannst du doch so erstellen, hat doch nichts mit Clansphere zu tun.

Die Datei wird auf jeden Fall von den bots ausgelesen, sei es nun Clansphere, Webspell, php-kit, phpBB oder ne einfache HTML-Seite.


------------------


Inaktiv
|
Fr33z3m4n ClanSphere Team


Medal of Honor




Herkunft: Hamm
Beiträge: 11094
# Antwort: 7 - 31.10.2007 um 11:14 Uhr
Doch man kann die einzelnen Bots ausfiltern, nur weiß ich bislang noch nicht wie, müsste ich mal nachschauen, möglich ist es auf jedenfall, obs dann auch in ClanSphere integriert werden kann, ist fraglich.
Auf jedenfall hab diverse Seiten Statistiken die Bots einzeln aufgelistet.


------------------
mfg
Patrick "Fr33z3m4n" Jaskulski

Antoine de Saint-Exupéry: Wenn Du ein Schiff bauen willst, so trommle nicht Männer zusammen, um Holz zu beschaffen, Aufgaben zu verteilen, sondern lehre die Männer die Sehnsucht nach dem endlosen weiten Meer.

Inaktiv
|
FranzAUT


Going for pro




Beiträge: 467
# Antwort: 8 - 31.10.2007 um 12:02 Uhr
Natürlich ist es technisch machbar zu erkennen obs nen Bot ist.

Hier ein Auszug aus meinen extra Log was ich ins CS integriert habe
mehr... +-
 
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
1. / 2. / ... 
 30.10.2007    03:22:29    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:22:44    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:25:14    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:25:47    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:28:07    38.99.44.103        Mozilla/5.0 (Twiceler-0.9 http://www.cuill.com/twiceler/robot.html)                 Ende                                    
30.10.2007    03:30:14    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:32:22    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:32:44    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:37:55    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:40:14    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                                                    
30.10.2007    03:43:21    74.6.26.198        Mozilla/5.0 (compatible     YahooSlurp     http://help.yahoo.com/help/us/ysearch/slurp)    Ende                            
30.10.2007    03:47:21    38.99.44.103        Mozilla/5.0 (Twiceler-0.9 http://www.cuill.com/twiceler/robot.html)                 Ende                                    
30.10.2007    03:51:17    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:52:07    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:52:44    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:53:06    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:53:28    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:55:24    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:56:11    65.55.209.58        msnbot/1.0 (+http://search.msn.com/msnbot.htm)                                         Ende                                    
30.10.2007    03:57:02    65.55.209.58        msnbot/1.0 (+http://search.msn.com/msnbot.htm)                                         Ende                                    
30.10.2007    03:57:45    66.249.65.110        Mozilla/5.0 (compatible     Googlebot/2.1     +http://www.google.com/bot.html)         Ende                            
30.10.2007    03:58:28    74.6.24.108        Mozilla/5.0 (compatible     YahooSlurp     http://help.yahoo.com/help/us/ysearch/slurp)    Ende                            
30.10.2007    04:04:01    65.55.209.61        msnbot/1.0 (+http://search.msn.com/msnbot.htm)                                         Ende                                    
30.10.2007    04:04:32    74.6.20.47        Mozilla/5.0 (compatible     YahooSlurp     http://help.yahoo.com/help/us/ysearch/slurp)    Ende    


Wie man auch sieht haben die Bots feste IPs oder denkt jemand das zb. Google Bot ne DLS Leitung hat mit 24 Stunden zwangtrennung


------------------


Inaktiv
|
borchi


Geekboy



Herkunft: Berlin
Beiträge: 1231
# Antwort: 9 - 31.10.2007 um 12:53 Uhr
Versteh nicht, warum ihr nicht einfach ne robot.txt erstellt. Um alle Bots auszuschließen:

User-agent: *
Disallow:/


Das als robot.txt speichern hochladen, sollte funzen...


------------------


Zuletzt editiert von borchi am 31.10.2007 um 12:53 Uhr (1x Editiert)
Inaktiv
|
FranzAUT


Going for pro




Beiträge: 467
# Antwort: 10 - 31.10.2007 um 13:11 Uhr
Damit schließt du aber alle Bots aus. Also willst du das deine Page nicht auf Suchmaschinen gefunden wird.


------------------


Inaktiv
|
borchi


Geekboy



Herkunft: Berlin
Beiträge: 1231
# Antwort: 11 - 31.10.2007 um 13:39 Uhr
So hab ich jedenfalls den Thread verstanden. Die robot.txt kann ja auch angepasst werden, man kann bestimmte Robots zulassen, nur in bestimmten Verzeichnissen usw.

Siehe hier: http://www.robotstxt.org/


------------------


Inaktiv
|
wasgeht
Thread-Ersteller


Poststar





Beiträge: 648
# Antwort: 12 - 31.10.2007 um 19:21 Uhr
etwa so?

ins hauptverzeichnis
Dateianhänge:
txt robots.txt (181.12 KiB - 180 mal heruntergeladen )


------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................


Inaktiv
|
borchi


Geekboy



Herkunft: Berlin
Beiträge: 1231
# Antwort: 13 - 31.10.2007 um 19:56 Uhr
Nicht ganz:

als erstes kommt

User-agent: robot-id
Disallow:/Pfad

User-agent: robt-id
Disallow:/Pfad

usw

Das ganze was du am ende hast brauchst du nicht, das sind ja di Beschreibungen zu den Bots


------------------


Inaktiv
|
FranzAUT


Going for pro




Beiträge: 467
# Antwort: 14 - 31.10.2007 um 19:58 Uhr
Nur was hat das mit der Frage zu tun ?
Es will ja keiner nen Bot ausschließen sondern sehen wo er ist, und gegebenenfalls nicht im Besucherzähler drin haben.
Oder sehe ich das jetzt falsch ?


------------------


Inaktiv
|
borchi


Geekboy



Herkunft: Berlin
Beiträge: 1231
# Antwort: 15 - 31.10.2007 um 20:00 Uhr
Mmmh, habs so verstanden, dass er die Bots ausschließen will. Er hat ja auch den Begriff robots.txt in den Raum geworfen


------------------


Inaktiv
|
wasgeht
Thread-Ersteller


Poststar





Beiträge: 648
# Antwort: 16 - 01.11.2007 um 00:57 Uhr
nein
genau diese bots will ich haben

es soll lediglich die robots.txt darauf hinweisen, welcher bot gerade wo unterwegs ist


------------------
..............................................Club-HP unter www.zocker-gemeinde.com.................................


Inaktiv
|
Antworten: 16
Seite [1]


Sie müssen sich registrieren, um zu antworten.


ClanSphere Project - Mailus - Imprint - Disclaimer - Scriptinfo