PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Otr-api



XUnwichtig
30.08.2006, 12:27
Wow .. darf man Fragen, warum das jetzt gespert wurde?

und: .. Wie kann man eine genehmigung von euch bekommen?, bzw. welche Kriterien müssen dafür erfüllt werden?


JimJim
XUN

Bumsi
30.08.2006, 13:47
Ja OTR hat mal eben die XML API rausgeschmissen... *lachweg*
naja, dann hatte ich also mal wieder recht, otr will garnicht das man sie nutzt.
nur wozu wurde sie dann eingeführt.

fragen über fragen, und doch bekommt man keine antwort.
naja das nächste script wird kommen, wo man die daten einfach aus der normalen seite parst und dann wird es otr noch weniger passen.

Bumsi

P.S. Mein Account wurde immer noch nicht gelöscht, 6 Tage bleiben noch.
Denkt dran, ich habe auch rechte, das ist eines davon!

XUnwichtig
30.08.2006, 14:15
Naja.. um erlich zu sein ... das XML is eh ******* ... mir haben da immer die infos gefehlt, die ich auf der seite jedoch finde ... Und ... die OTR-Soft, die ich mal geschrieben hab, nutz ich eh nimmer, weil ständig was am web geändert wurde. Und .. ob ich nochmal lust hab, das alles auspharsen zu müssen, weiss ich eh nicht. .. zumindest noch nicht ... die zeit fehlt auch, das man sich da mal fix hinsetzen könnte .. arbeit über arbeit...

Dennoch würd ich interessieren, warum es überhaupt raus genommen wurde?!?

Vieleicht hat sich ja irgend jemand drauf Gehackt, sich als Admin ausgegeben hat und das ma fix gelöscht hat ..
VIELEICHT is hier auch die Polizei im spiel, so ähnlich wie beim JAP, und es wird jetz massiv gescannt, wenn kein Feedback vom Admin kommt. ... hach .. bei mir brodeln schon wieder die Möglichkeiten im Kopf ..


JimJim
XUN

Administrator
30.08.2006, 14:51
Ab nächster Woche gibts ne neue API-Version und Programmrichtlinien!

XUnwichtig
30.08.2006, 17:31
:] ... hoffentlich mit viiiiieeeellll infos =) in kleeeeiiinnnem Format :P

JimJim
XUN

CTVSupporter
30.08.2006, 22:09
Um den Missbrauch einzudämmen, kann es sein, daß manche Daten erst mit Zeitverzögerung (also 1 Sekunde z.B.) geliefert werden. Dann ist das schnell genug für die Links, die man downloaden will aber zu langsam für ewig große Listen.

jwf2010
31.08.2006, 10:35
Original von Bumsi
fukami und du haben sich ja auch ne Menge Arbeit damit gemacht das alles aktuell zu halten und auszuführen... naja schade!
Das (WIKI::Doku) hat FUKAMI alleine gemacht. Offensichtlich wird die API jetzt geändert. Wie ich schon geschrieben habe, man löscht keine URLs derart kommentarlos !!
Da die aktuellen APIs offenbar die Server lahm legen können, kann ich verstehen, dass man die History zum Beitrag gelöscht hat, damit man sie nicht 'hervorkramen' kann. Trotzdem, eine Erklärung auf der Seite, wäre professionell gewesen.

Wenn man also an seinen eigenen WIKI Beiträgen hängt, sollte man von nun an ein privates Backup (Quelltext) machen. =)

Cia.

Admin: Zustimm + Sorry! Kommt nimmer vor. Knapper Kommentar war Ergebnis von Zeitdruck, ausführlicher Kommentar kam dann abends erst.

@Admin: von jwf2010: Danke für die Antwort.

Mr. S
31.08.2006, 12:37
Ahh.... Das ist ja mal eine klare Aussage was mit der API passiert! Ich hab schon angefangen die Dateinamen-Autokorrektur aus meinem Decoder wieder auszubauen. Ziel war eigentlich die Dateiliste von OTR mit dem Dateinamen zu vergleichen um Fehler in dem Namen zu finden und ggf. zu korrigieren. Schließlich ist das ja die Fehlerquelle Nr. 1. Dann werde ich damit noch warten (Sorry Menno! Dauert noch länger).

Bumsi
31.08.2006, 19:38
ich spreche auch nicht unbedingt auf das layout an...dys system bis zum download z.B.

ich weiß auch das es schwer bis garnicht umzusetzen ist, war ja auch nur ne Anmerkung, denn für Neulinge und auch andere User ist das Mirrorsystem sehr undurchsichtig und stressig!

XUnwichtig
31.08.2006, 19:55
:] <= *mal in den Raum leg*

emsa
31.08.2006, 20:09
Original von Bumsi
ich spreche auch nicht unbedingt auf das layout an...dys system bis zum download z.B.

ich weiß auch das es schwer bis garnicht umzusetzen ist, war ja auch nur ne Anmerkung, denn für Neulinge und auch andere User ist das Mirrorsystem sehr undurchsichtig und stressig!

Ich fürchte, da wird es noch schwieriger, ich deutete es ja bereits an. Allein schon, weil nicht alle das selbe OS benutzen. Da eine einheitliche Schnittstelle zu amchen, die dann auch noch auf den diversen Hoster-Configs tut, wie man will ist im übelsten Fall eine Lebensaufgabe.

Aber, evtl. könnte man für ein solches Tool sozusagen standardisierte Links basteln...

Das Problem ist halt, zwischen der API, den Mirrors und dem User da so zu vermitteln, dass alle was davon haben UND es auch überall funktioniert.

Vielleicht wäre eine XML-Schnittstelle mit standardisierten Links für ein solches Tool der richtige Weg. Und Mirrors die darin gelistet werden wollen, müssen dann halt diese Schnittstelle bieten oder sie bleiben draussen. Das hätte natürlich acuh den bestechenden Vorteil, dass da niemand sagen könnte, er sei gegen seinen Willen gelistet ;)

Die Frage ist halt, ob die Mirrors da mitspielen wollen/können und wie man deren Belange da ausreichend berücksichtigt. Und das könnte sogar noch schwieriger werden, weniger wegen der Mirrors, als wegen der mitunter recht zickigen Werbeanbieter.

Und um aufs Grundthema zurueckzukommen, die API. Darauf sollte natürlich vom Client aus zugegriffen werden, ohne dass die Daten irgendwohin gehen müssen. Man wäre dann auch nicht von einem weiteren Single Point of Failure abhängig.

Und noch so eine Spontan-Idee: die Daten der API lokal cachen und z. B. nur neue holen, wenn der Cache älter als z. B. 15 oder 30 Minuten ist, dann muss der User halt mal nen Weilchen länger warten, es würde aber ggfls. die Server entlasten.

Quasi müsste der Client in der Mitte zwischen OTR-API und Mirrors stehen und dem User _lokal_ die Daten zusammenführen. Alles andere ist IMHO nicht sinnvoll.

Ciao
emsa

Mr. S
31.08.2006, 20:59
Original von emsa
Und um aufs Grundthema zurueckzukommen, die API. Darauf sollte natürlich vom Client aus zugegriffen werden, ohne dass die Daten irgendwohin gehen müssen. Man wäre dann auch nicht von einem weiteren Single Point of Failure abhängig.
Im Normalfall machen das ja alle Programme. Eine weitere Gefahr ist natürlich das die Daten bei einer Umleitung irgendwo gespeichert und für die Zwecke des Betreibers verwendet werden.


Original von emsa
Und noch so eine Spontan-Idee: die Daten der API lokal cachen und z. B. nur neue holen, wenn der Cache älter als z. B. 15 oder 30 Minuten ist, dann muss der User halt mal nen Weilchen länger warten, es würde aber ggfls. die Server entlasten.
Auf jeden Fall! Noch eine Idee wäre dass man an die API Suchbegriffe übergibt und dann nur ein kleiner Teil der Daten abgeholt wird und nicht die gesammte Liste.

emsa
01.09.2006, 06:56
Original von Mr. S

Original von emsa
Und noch so eine Spontan-Idee: die Daten der API lokal cachen und z. B. nur neue holen, wenn der Cache älter als z. B. 15 oder 30 Minuten ist, dann muss der User halt mal nen Weilchen länger warten, es würde aber ggfls. die Server entlasten.
Auf jeden Fall! Noch eine Idee wäre dass man an die API Suchbegriffe übergibt und dann nur ein kleiner Teil der Daten abgeholt wird und nicht die gesammte Liste.

Oh, eine hübsche Suchfunktion quasi? Das wäre ein wirklich sehr nettes Feature, nicht nur hinsichtlich der Serverlast. Wenn das dann noch über die WL gehen könnte *träum* ;)

Ciao
emsa

XUnwichtig
01.09.2006, 10:06
Fragt sich nnur, was effizenter ist ... Serverseitig nach Kriterien die Daten zu durchsuchen, neu zu sammeln, und diese zu übertragen, oder einfach alles zu übertragen, ohne zusätzliche Funktionsaufrufe, die eventuell nicht wirklich eine Entlastung darstellen, sondern eher eine zusätzliche Belastung. ... das müsste man mal Testweise untersuchen ...

und, den Vorschlag mit XML find ich immernoch doof ... der XML-Parser frist mit sicherheit einige Resourcen .. und Traffic .. darauf könnt ich immer wieder zurück kommen .. Wenns einer von euch kennen sollte (SOAP) .. 15x Overhead .. wohlgemerkt, UNNÖTIGER Overhead ...


JimJim
XUN

emsa
01.09.2006, 10:35
Original von XUnwichtig
Fragt sich nnur, was effizenter ist ... Serverseitig nach Kriterien die Daten zu durchsuchen, neu zu sammeln, und diese zu übertragen, oder einfach alles zu übertragen, ohne zusätzliche Funktionsaufrufe, die eventuell nicht wirklich eine Entlastung darstellen, sondern eher eine zusätzliche Belastung. ... das müsste man mal Testweise untersuchen ...

Hmm, in der Tat wäre das zu prüfen, bzw. mal genauer durchzuüberlegen. Andererseits, auch die Gesamtdaten komenn aus einer Datenbank. Es ist ja nicht so, dass da einfach mal für jeden User ein Flatfile rumliegt. ;) Und da mcht es im extremfalls chon was aus, ob man 10 Abfragen für Stichworte mit sagen wir 1-2 Ergebnissen hat oder 1 Abfrage mit vielleicht dann 200 Ergebnissen. Da ist dann letztere evtl. doch lastintensiver.


Original von XUnwichtig
und, den Vorschlag mit XML find ich immernoch doof ... der XML-Parser frist mit sicherheit einige Resourcen .. und Traffic .. darauf könnt ich immer wieder zurück kommen .. Wenns einer von euch kennen sollte (SOAP) .. 15x Overhead .. wohlgemerkt, UNNÖTIGER Overhead ...

Nun, XML ist da nur eine Möglichkeit und nur ein Vorschlag. Entscheident dafür wird IMHO letztendlich sein, was am ehesten und am lastsparendsten zu implementieren ist. Das bisschen Protokolloverhead macht es für den Server nicht aus, entscheidend ist das Handling.

Ciao
emsa

XUnwichtig
01.09.2006, 10:54
Klingt stark nach: Http://XUN.Funpic.de


JimJim
XUN

Mr. S
01.09.2006, 11:23
Original von emsa
Hmm, in der Tat wäre das zu prüfen, bzw. mal genauer durchzuüberlegen. Andererseits, auch die Gesamtdaten komenn aus einer Datenbank. Es ist ja nicht so, dass da einfach mal für jeden User ein Flatfile rumliegt. ;) Und da mcht es im extremfalls chon was aus, ob man 10 Abfragen für Stichworte mit sagen wir 1-2 Ergebnissen hat oder 1 Abfrage mit vielleicht dann 200 Ergebnissen. Da ist dann letztere evtl. doch lastintensiver.
Vielleicht sollte man für die User so eine Datei einführen. Es gab ja früher eine eMail wenn die Aufnahme fertig war. Man nimmt einfach dieses Ereignis und schreibt einfach eine weitere Zeile mit den neuen Daten in eine user-spezifische Datei. Die API braucht dann eigentlich nur noch diese Datei zurückgeben. Ist auf dem Server pro Datei eine einmalige Sache und belastet die Datenbank nicht, sondern nur den Traffic.

Das RPC/RCC klingt zwar ganz nett, ist aber bestimmt nicht einfach in OTR einzubauen. Außerdem frage ich mal so, was soll denn da gecached werden? Zumindest bei mir ändert sich der Inhalt der Aufnahmeliste sehr häufig, da ist nicht viel mit cachen! Da bringt das überhaupt nix.

Bumsi
01.09.2006, 11:39
Original von XUnwichtig
Klingt stark nach: Http://XUN.Funpic.de


JimJim
XUN

ich kenne das board nicht, aber ja das war ein auszug aus meinem teil der künstlichen intelligenz eines neronalen netzwerkes..

XUnwichtig
01.09.2006, 11:46
Original von Bumsi
ich kenne das board nicht, aber ja das war ein auszug aus meinem teil der künstlichen intelligenz eines neronalen netzwerkes..Wenn du dich für diese Thematik interessierst, bist herzlich gerne im Board willkommen ..

Allerdings wird hier ne KI oder EI nicht wirklich sinvoll sein ..

Den vorschlag mit der Datei find ich auch nicht schlecht .. is auch sicher einfacher, udn schneller zuhandhaben, als über eine datenbank ... 1 User = 1ne Datei .. wenn man das Datei-Format dann noch vernümpftig macht, muss man nicht mal irgend was abändern, für die API, und kann einfach die Datei übertragen .. da steht dann schon gleich alles sdrin, was für eine Tablle im APP notwendig wär.


JimJim
XUN

emsa
01.09.2006, 12:39
Original von Mr. S

Original von emsa
Hmm, in der Tat wäre das zu prüfen, bzw. mal genauer durchzuüberlegen. Andererseits, auch die Gesamtdaten komenn aus einer Datenbank. Es ist ja nicht so, dass da einfach mal für jeden User ein Flatfile rumliegt. ;) Und da mcht es im extremfalls chon was aus, ob man 10 Abfragen für Stichworte mit sagen wir 1-2 Ergebnissen hat oder 1 Abfrage mit vielleicht dann 200 Ergebnissen. Da ist dann letztere evtl. doch lastintensiver.
Vielleicht sollte man für die User so eine Datei einführen. Es gab ja früher eine eMail wenn die Aufnahme fertig war. Man nimmt einfach dieses Ereignis und schreibt einfach eine weitere Zeile mit den neuen Daten in eine user-spezifische Datei. Die API braucht dann eigentlich nur noch diese Datei zurückgeben. Ist auf dem Server pro Datei eine einmalige Sache und belastet die Datenbank nicht, sondern nur den Traffic.

Das RPC/RCC klingt zwar ganz nett, ist aber bestimmt nicht einfach in OTR einzubauen. Außerdem frage ich mal so, was soll denn da gecached werden? Zumindest bei mir ändert sich der Inhalt der Aufnahmeliste sehr häufig, da ist nicht viel mit cachen! Da bringt das überhaupt nix.

Ganz so simpel ist es nicht. In dieser Datei müssten ja gelöschte/decodete/bad/whatever aussortiert werden und das muss (live) nachgehalten werden. Und woher stammen die Daten? Genau, aus der DB ;)

Ciao
emsa

Mr. S
01.09.2006, 13:17
Original von emsa
Ganz so simpel ist es nicht. In dieser Datei müssten ja gelöschte/decodete/bad/whatever aussortiert werden und das muss (live) nachgehalten werden. Und woher stammen die Daten? Genau, aus der DB ;)
Wieso das denn? Wenn man eine Datei löscht und das Programm anständig geschrieben ist, dann übergibt der Server einfach nur Userdatei, EPGID und den Befehl löschen. Das kann man direkt in eine Schleife einbauen die in dem PHP-Script der Seitendarstellung läuft und die Einträge in der DB löscht. Ändern ist auch nicht viel schwieriger, wenn man den Status als Byte-Flag speichert: Datei öffnen - Byte ändern - Datei schließen.

Man könnte die ganze API auch auf einen anderen Server auslagern, da müsste man dem Server nur immer die Änderungen schicken.

Bumsi
01.09.2006, 13:30
wenn es wirklich ander performance liegt sollte man auf prozessflags oder prozessqueqes setzen, damit würde es evtl. mal länger dauern, aber der service würde stabil arbeiten!

XUnwichtig
01.09.2006, 14:47
Also .. mit Datein is das doch wohl n klacks ..
und, in einer Datei 200Zeilen mit daten zu füllen, is ja wohl nicht weiter wild .. wenn n anständiger CPU dahinter sitzt, dann razt das durch wie nix .. und wenn jetz n user 1 oder 2 sek. auf seine Daten warten muss, is das doch auch nicht weiter wild ..

Byteflag .. eben .. das sind 1Byte, und nicht, wie bei XML <tag-name>Staustext</tag-name> .. das änder die Übertragenen daten auch gleich massiv .. und, die rechenzeit, für das erstellen von XML usw. .. kann man sich dann auch spaaren ... gleiches gilt fürs DB-Requesten .. was sicher auch nhaufen Ressourcen verbraucht, wenn da ne DB im hintergrund luft ..

man könnte sichja n beispiel an DNS nehmen .. und das auf diese art aufziehen .. zum teil zumindest .. so kannman Daten auch schenller erreichen .. oder manmacht 2 datein pro user .. eine, in der die Daten liegen, und eine, in der die Positionen der Daten gespeichert werden. Dann braucht der Server nur die Pos-Datei öffnen, sucht sich rasant das, was er braucht (EPGID->FilePos), springt zur anderen Datei, udn braucht nicht ewig suchen, bis er das passende EPG gefunden hat, sondern geht spontan einfach zu der angegebenen Position.

Man könnte auch für jeden user einen eigenen Ordner machen (wenn man das FISY nutzen möchte) .. in demOrdner werden dann einfach die aufträge als Datein abgelegt. .. Da is löschen, Umbenennen, auslesen usw. auch nicht weiter wild.

Hach .. da gäbe es tausend möglichkeiten, das anders, als SQL zu machen.

Wenn man Datzein nutzt hat man auch die möglichkeit über NCQ oder TCQ auf diedaten zuzugreifen, was den Datentransfer im System selbst ebenfalls nochmal erhöht. So müssen nicht alle anfragen über ein und dieselbe schnittstelle (SQL) erfolgen, und werden in eine Radikale Liste eingetragen .. was natürlich nur nacheinander abzuarbeiten ist.

TCQ und NCQ beschleunigt desweiteren die zugriffszeiten auf der Platte, was wiederum auf dauer recht spaarend wär.


JimJim
XUN

Mr. S
01.09.2006, 14:55
Hm... Vielleicht kann man auch an der SQL-Struktur noch Leistung rauskitzeln. Eigentlich braucht man ja nur 4 Tabellen (User, EGP, Aufnahmen, Wishlist), warum bricht denn da der Server zusammen?

Naja, egal! Ich glaube wir müssen uns von OTR überraschen lassen, oder gibts von der Seite noch einen Kommantar zu dem Thema hier?

XUnwichtig
04.09.2006, 20:19
DBs nicht nicht wirklich schneller ..

Zum einen greift eine DB auch nur auf Daten zu, welche auf Platte liegen, zum anderen werden auch Datein im Speicher vorgecachet ... so wie die DB ...

Zum anderen hat aus meiner sicht eine DB nur den Vorteil, das ALLE Daten Tabellen, udn Liste in einer Datei vorliegen, welche durch ein ausgeklügeltes System auf einfache weise zu erfragen sind. ... Sie liegen jedoch in einer Datei vor .. und nicht in mehreren .. bzw. können auch so verwaltet werden.

Einzelne Datein sind jedoch flexibler, leichter zu Manipulieren, kleiner, udn nicht ganz so Latent, wie eine Grosse DB ..

Dabei kommt mir grad nochne Idee .. Wenn nämlich mal eine DB Kaput gehen sollte, ists meist nichts mehr zu retten .. alle Daten sind futsch .. sollte man auf Datein Basieren, kann zur not jemand seine heruntergeladene Datei einfach wieder zurück spielen .. und hat somit schon clientseitig einen Backup vorliegen ..

hmm ..


JimJim
XUN

Bumsi
04.09.2006, 20:22
na ich denke das otr nicht groß an der struktur seiner tabellen frickeln möchte...aber da muss man wirklich erst mal abwarten...

es bringt hier eigentlich noch überhaupt nichts darüber zu diskutieren. ich warte jetzt erst einmal die API ab und schaue dann, dass man das beste daraus machen kann.

ich wäre z.B. für die schöne metainfo(torrent) struktur....dort kann man integer und string schön unterbringen.

Bumsi

XUnwichtig
04.09.2006, 20:27
naja.. integer und String sind Datentechnisch gesehen das selbe, ...

ob ich ne Zahl als Long / Integer oder String speicher, wenn ich Sie übertrage, wird sie sowieso zu nem String .. .. Byte is Byte *g* ... auser, du willst die Zahlen in Bytes a 8Bit verpacken .. was ich aber nicht wirklich für toll halte ..

aber Platz udn Traffick würds sparen, da muss ich dem schon zustimmen.

PS: Lass uns doch etwas spekulieren, vieleciht lesen Die Herren ja mit, und hohlen sich ein paar Anregungen .. kann doch nicht schaden .. :]


JimJim
XUN

Bumsi
04.09.2006, 20:32
Original von XUnwichtig
naja.. integer und String sind Datentechnisch gesehen das selbe, ...

ob ich ne Zahl als Long / Integer oder String speicher, wenn ich Sie übertrage, wird sie sowieso zu nem String .. .. Byte is Byte *g* ... auser, du willst die Zahlen in Bytes a 8Bit verpacken .. was ich aber nicht wirklich für toll halte ..

aber Platz udn Traffick würds sparen, da muss ich dem schon zustimmen.

PS: Lass uns doch etwas spekulieren, vieleciht lesen Die Herren ja mit, und hohlen sich ein paar Anregungen .. kann doch nicht schaden .. :]


JimJim
XUN

naja datentechnisch meinte ich das auch nicht, das metainfo format einer torrent datei ist halt super kompakt und einfach zu parsen. ein schneller algorythmus ist das leicht zu schreiben....

evtl, würde ich auch ne leichte kompression der daten bevorzugen. dabei würden aber wieder einige ressourcen geklaut.

XUnwichtig
04.09.2006, 20:34
das stimmt .. und User, welche das eventuell über eine andere Sprache betreiben möchten, bzw die API Benutzen, haben sicher dann auch massive Problem .. z.B. via JAVA oder ähnliches .. da kann man mal eben n dekompresor ned so schnell coden *g*

PS: Braucht aber nicht immer meinen Kompletten text Quoten .. ich weiß, was ich zuvor geschrieben habe ;) ... Das kostet ja auch Traffic =)


JimJim
XUN

Pythagoreas
04.09.2006, 23:10
Original von XUnwichtig
DBs nicht nicht wirklich schneller ..

Zum einen greift eine DB auch nur auf Daten zu, welche auf Platte liegen, zum anderen werden auch Datein im Speicher vorgecachet ... so wie die DB ...

Einzelne Datein sind jedoch flexibler, leichter zu Manipulieren, kleiner, udn nicht ganz so Latent, wie eine Grosse DB ..

Ich hab mal ne kleine Testsuite zu dem Thema gemacht, und bin, ehrlich gesagt, sehr überrascht. Zumindest beim Einfügen belegt die DB 99.7% der Laufzeit, die Dateien die restlichen 0.3% =). Aber schauts euch selber an. Ich werde die Suite in den nächsten Stunden noch ergänzen.

Zur Suite (http://otrtracker.pytalhost.com/performance/index.htm)

Gruß
Pytha

XUnwichtig
05.09.2006, 13:35
8o 8o 8o

WOW .. das das SOO VIEL is, hät ich jetzt nicht gedacht ... ... ich hätte eher mit einem knaperen Ergebniss gerechnet, als mit solch einen fatalem Unterschied.

Das is ja enorm!

Kannst du eventuell auch mal die gesammten Funktionen testen .. bzw. Einfügen, Löschen, ändern? ... Einfügen is ja bekantlich schnell, is ja nicht weiter wild, sowas anzuhängen, aber es könnt beim löschen, bzw ändern von Daten schon enger werden .. eventuell


JimJim
XUN

Pythagoreas
05.09.2006, 17:05
Hmm, ich überlge mir gerade, dass ich vielleicht einen kleinen Fehler bei der Testlogik gemacht hab; weil eigentlich geht es ja darum, für jeden User seine eigene Datei zu erstellen, und das dürfte doch wesentlich länger dauern.. also, als nächstes mach ich mal die Tests fürs Auslesen, und ich werd den Insert-Test nochmal so abändern, dass er 500-mal in verschiedene Dateien schreibt... mal schaun ob das wirkt...
Ich geb dann Bescheid ;)

Gruß
Pytha

EDIT: Ich hab jetzt mal den gleichen Test (Create, wie er eigentlich heißen müsste) auf Basis einzelner Dateien durchgeführt. Das könnte jetzt z.B. das anlegen von 500 Usern verdeutlichen (hier müssten ja 500 User-Dateien angelegt werden), wobei die DB hier nur 1/4 der Zeit benötigt, wohingegen die restlichen 3/4 von den Files verschluckt wird. Der richtige Insert-Test wird gerade von mir vorbereitet =)

Pythagoreas
05.09.2006, 20:57
Moin zusammen,

ich hab jetzt die beiden Create-Tests und den Insert-Test fertig.

Die DB liegt relativ weit vorne. Allerdings kommt der interessante Test erst noch: der Select-/Auslesetest. Wen die Ergebnisse interessieren, der schaut einfach mal hier:
Komplette Suite (http://localhost/jonas/performance/)
Nur der Insert-Test (http://localhost/jonas/performance/insert.php)

Gruß
Pytha

XUnwichtig
05.09.2006, 20:59
Original von PythagoreasKomplette Suite (http://localhost/jonas/performance/)
Nur der Insert-Test (http://localhost/jonas/performance/insert.php)
mit Link zum localhost, wird das nicht gehen *g*

daher:
Komplette Suite (http://otrtracker.pytalhost.com/performance/)

den anderen kann nich nicht linken, da kommt 404

Wobei .. man muss ja auch nicht immer wieder ne neue Datei anlegen .. nur bei nem neuen User, und da isses ja nicht weiter wild .. man muss sie ja nurbearbeiten =)


JimJim
XUN

burning snow
06.09.2006, 07:44
Hallo an alle,

Wenn ich das richtig lese ist die OTR-API noch immer Offline.

Sehe ich das richtig?

Kann man denn schon sagen wann die OTR-API wieder Online sein wird? Wann wird die Dokumentation überarbeitet und wieder freigegeben?

Vielen Dank im Voraus.

XUnwichtig
06.09.2006, 13:01
das sind ja gleich 3 Fragen auf einmal =)

Also .. die API is momentan devinitiv Offline, und wann Sie wieder Online gestellt wird, is mir persönlich noch nicht bekannt ... gleiches gilt für die Doku.


JimJim
XUN

Bumsi
06.09.2006, 14:12
Original von burning snow
Hallo an alle,

Wenn ich das richtig lese ist die OTR-API noch immer Offline.

Sehe ich das richtig?

Kann man denn schon sagen wann die OTR-API wieder Online sein wird? Wann wird die Dokumentation überarbeitet und wieder freigegeben?

Vielen Dank im Voraus.

ja sie ist wohl noch offline...und es wird auch so sein, das die neue API nicht jeder nutzen darf. Es wird eine Genehmigung von OTR vorrausgesetzt.

Das finde ich einerseits gut, damit der Server nicht aus den Fugen gerissen wird. Andererseits gibt es den neuen Entwicklern keine Chance an Programmen zu entwicklen, denn auch diese müssen erst einmal getestet werden.


Gruß

Bumsi

Bumsi
06.09.2006, 20:09
das werden die Leute von OTR wohl kaum machen...

hier wurde damals schon drüber diskutiert das änderungen am laufenden System durchgeführt werden und es dazu zu erheblichen fehlern kommt.

damals, so konnte man lesen wäre es zu viel aufwand ein Testsystem laufen zu lassen....

Bumsi
11.09.2006, 07:08
naja, die API steht bereits und ist nutzbar....

Administrator
11.09.2006, 09:14
Original von intripoon
datiert auf 30.08. Gibt es die jetzt irgendwo?

DU(!) warst doch sogar der ERSTE(!) der eine PM erhalten hat, wegen der neuen API. :baby:

Pythagoreas
11.09.2006, 10:13
gibts auch (schon) ne art anleitung oder nen wiki eintrag? bei meiner Recherche gerade hab ich nix gefunden :rolleyes:

Gruß
Pytha

online-verdiener.de
11.09.2006, 14:43
Weiß jemand, ob Roader mit seinem OTR-Downloader nun auch wieder aktiv ist und an einer neuen Software arbeitet? Bzw wurde er mal wegen der neuen Api benachrichtigt? Seine Software war bis jetzt die besten von den ganzen hier.

Bumsi
11.09.2006, 14:52
Original von Pythagoreas
gibts auch (schon) ne art anleitung oder nen wiki eintrag? bei meiner Recherche gerade hab ich nix gefunden :rolleyes:

Gruß
Pytha

ne anleitung gibts...aber ob die für jeden bestimmt sein soll weiß ich nicht...

Pythagoreas
11.09.2006, 15:12
hast du die? des wär ja unfair -.-
X(
Gruß
Pytha

Administrator
11.09.2006, 16:17
Original von online-verdiener.de
Weiß jemand, ob Roader mit seinem OTR-Downloader nun auch wieder aktiv ist
Ja er ist an ner neuen version dran..



Original von Pythagoreas
hast du die? des wär ja unfair -.-
Musst ja nicht gleich so einen bösen Smiley nach uns werfen!

http://www.onlinetvrecorder.com/downloader/api/

Administrator
11.09.2006, 16:52
Original von Pythagoreas
Wollte eigentlich schreiben: :] *griins*

jaja.. ;)



Original von Pythagoreas
Endlich mal ne gescheite API
Die hat sich doch gar nicht geändert! War vorher auch so! Nur die Links sind anders, aber die XML-Einträge sind die gleichen.. :baby:



Original von Pythagoreas
Irgendwie find ich es einfach.. bedrängend, wenn man als ganz neuer Programmierer kommt und sieht: Oha, erst muss man mal anfragen, bevor man überhaupt die Chance bekommt, das mal auszutesten.

wer nicht will, der muss auch nicht.. :evil:
OTR hat mehr Seitenaufrufe als postbank.de. Stell dir mal vor, die würden jedem Dahergelaufenem ne API zur Verfügung stellen, damit die sich Ihren Kontostand auslesen können.
Mit ner Mail hat man wenigistens ne Mailadresse von dem, der dass verzapft.



Original von Pythagoreas
Es kann nämlich meiner Meinung nach nciht sein, dass man erst einmal eine Mail an irgendeine GMail-Adresse senden muss, um dann eine Woche später festzustellen, dass der eigene Antrag abgelehnt worden ist. Das ist wirklich nicht gut.

Eine Woche? Haste es etwa schon gemacht und die Zeit gestoppt? 8)



Original von Pythagoreas
Registrierungsformular

Wegen 3 Programmen? 8o



Original von Pythagoreas
Ich finde es auch nicht wirklich gelungen, dass die ganze Doku auf eine Seite wandert, die dann (zumindest im Moment noch) nur der sieht, der überhaupt diesen Thread besucht.

Programmierer haben den Link schon vor Tagen, teils Wochen erhalten um es mit zu entwickeln. :baby:
Ausserdem ist es in unserem Interesse den Kreis seeeeeeeehr klein zu halten! Wir wollen gar nicht viele Programme! dumdidum.

So wie es jetzt ist, ist es gut. Und so bleibts auch.. :]

Pythagoreas
11.09.2006, 20:05
Moini^^


Original von Administrator

Original von Pythagoreas
Endlich mal ne gescheite API
Die hat sich doch gar nicht geändert! War vorher auch so! Nur die Links sind anders, aber die XML-Einträge sind die gleichen.. :baby:
Jo, aber jetzt ist es irgendwie übersichlicher, wie ich finde.



Original von Administrator
Original von Pythagoreas
Irgendwie find ich es einfach.. bedrängend, wenn man als ganz neuer Programmierer kommt und sieht: Oha, erst muss man mal anfragen, bevor man überhaupt die Chance bekommt, das mal auszutesten.
wer nicht will, der muss auch nicht.. :evil:

-.-'


Original von Administrator
OTR hat mehr Seitenaufrufe als postbank.de. Stell dir mal vor, die würden jedem Dahergelaufenem ne API zur Verfügung stellen, damit die sich Ihren Kontostand auslesen können.
Was wär denn dann?



Original von Administrator
Mit ner Mail hat man wenigistens ne Mailadresse von dem, der dass verzapft.

Hat man bei ner Registrierformular auch; einfach ne Confirmationmail schicken...



Original von Administrator
Original von Pythagoreas
Es kann nämlich meiner Meinung nach nciht sein, dass man erst einmal eine Mail an irgendeine GMail-Adresse senden muss, um dann eine Woche später festzustellen, dass der eigene Antrag abgelehnt worden ist. Das ist wirklich nicht gut.

Eine Woche? Haste es etwa schon gemacht und die Zeit gestoppt? 8)
Von so einer Zeit bin ich halt mal ausgegangen =)



Original von Administrator
Original von Pythagoreas
Registrierungsformular
Wegen 3 Programmen? 8o
Jop, das geht massig schneller und du hast die Daten direkt in ner Tabelle...



Original von Administrator
Programmierer haben den Link schon vor Tagen, teils Wochen erhalten:baby:
Das ist ja das Schlimme... :rolleyes:


Original von Administrator
Ausserdem ist es in unserem Interesse den Kreis seeeeeeeehr klein zu halten! Wir wollen gar nicht viele Programme! dumdidum.

OK, das ist einfach ein anderer Ansichtspunkt. Da gibts einmal die Leute, die wollen, dass sich Software sehr viel und sehr weit verbreitet, und natürlich auch den, wobei man nur ein paar wenige will, und welcher hier eintritt. Nuja, ich denk mal, das hat auch was mit Geschmack zu tun...


Original von Administrator
So wie es jetzt ist, ist es gut. Und so bleibts auch.. :]
Das wichtigste im ganzen Post ;). Jetzt weiß man, wo man dran ist...

OK, ich will hier ja auch kein Stritgespräch anfangen...
also nochmal: fettes DANKE für eure riesigen Mühen rund um OTR!
Ganz nach dem Motto: Es wird gegessen, was auf den Tisch kommt =)

Gruß
Pytha

intripoon
12.09.2006, 17:43
Originally posted by Administrator

Original von intripoon
datiert auf 30.08. Gibt es die jetzt irgendwo?

DU(!) warst doch sogar der ERSTE(!) der eine PM erhalten hat, wegen der neuen API. :baby:
Oh, Tatsache. Habe ich nicht gesehen. Na da bin ich jetzt aber mal gespannt :)

tosto
12.09.2006, 21:11
Fehler entdeckt in der Doku zur Api:


[otr]/downloader/api/request_list.php

• ?showonlny= [recordings, scheduled, archive]

das soll doch sicher showonly heißen ohne das zweite n.


Noch ne Frage:
wenn man einen Status ausblendet, heißt das dann das das dazugehörige Feld in der XML Datei leer bleibt oder das alle Datensätze mit dem Status nicht übergeben werden?

Noch einen Vorschlag:
Da nicht jeder auf die Api zugreifen kann, (was auch wirklich Sinn macht insofern man nicht zuviel Geld für Hardware und Trafic hat) es aber sicher ne Menge an Leuten gibt die vielleicht mal was programmieren wollen durch die Registrierung aber abgeschreckt werden, würde ich hiermit einen Vorschlag unterbreiten der eigentlich niemandem widersprechen sollte:
Eine Sandbox Api für den Heimgebrauch bauen. Soll heißen: (eventuelle abgeänderte) PHP-Skripte die man auf dem heimischen apache laufen lässt, eine Beispiel DB mit Beispiel Datensätzen. Das ganze Szeanrio aus PHP und DB muss mitichten der Wirklichkeit auf den Servern entsprechen, es ist entscheident das man mit seinem Programm mit dieser Sandbox kommunizieren kann wie mit der richtigen Api, wenn man Zugang hat.
Das ID Problem könnte man z.B. durch eine ID die garantiert nicht auftauchen kann durch den Berechnungsalgorithmus (etwa 0), lösen.
Ist vielleicht ganz gut das man eventuellen Schreibfehlern vorbeugen kann.


Und noch die Unbeatwortete Frage von Pythagoreas die mich auch brennend interessiert:

EDIT: Ähm, was muss man eigentlich mit der Session-ID machen? Wie muss man die übergeben? Per QueryString? Postdata? Cookie? Garnicht Augen :rolleyes: ?

Und danke für alles!

ciao

Bumsi
13.09.2006, 06:58
EDIT: Ähm, was muss man eigentlich mit der Session-ID machen? Wie muss man die übergeben? Per QueryString? Postdata? Cookie? Garnicht Augen ?

Also ich benutze diese API ja schon. Die Session ID an sich brauchst du wohl nur um zu schauen ob du wirklich eingeloggt bist. Was du aber brauchst sind die Session Cookies...Evtl. geht auch eine übergabe der Sessid über die Get Anfrage, das weiß ich aber nicht.

Gruß

Bumsi

Administrator
13.09.2006, 09:37
Original von Bumsi
Was du aber brauchst sind die Session Cookies...

Hm, also Roader meinte, er braucht diese ID..
Wenn was nicht geht habt ihr ja die Mailadresse.. ;)

Bumsi
13.09.2006, 10:05
naja, der eine machts so, der andere so :D

Jetzt weiß ich wenigstens dass es auch mit der Übergabe der SessionID geht...ich machs aber weiter mit SessionCookies..Das ist wesentlich sicherer!

Administrator
13.09.2006, 11:37
pööh.. :baby:

blubbi
29.10.2006, 19:01
Wie komme ich über die XML-API an die Links welche im RSS-Feed angezeigt werden?

also sowas hier quasi:


http://81.95.11.3/download/817227/1/758712/7296b5cac2060a28c6974ceb4c15b4ce/Timeline_06.10.20_20-15_pro7_120_TVOON_DE.mpg.avi.otrkey

http://81.95.11.3/download/817227/1/758712/593cc5dd68d4084d8aaf14fc00688705/Timeline_06.10.20_20-15_pro7_120_TVOON_DE.mpg.mp4.otrkey

Mir sind 2 Teile der URL unklar:

die 1 was bedeutet die 1 und die Zahl nach der 1, ist das ein hash, wenn ja wo bekomme ich den her wenn nicht aus dem RSS-feed?

Grüße
blubbi

M.Mitchell
02.11.2006, 11:50
steht in der api



[otr]/downloader/api/request_file.php
• ?id= ist vorgegeben
• &epgid= ist vorgegeben
• &file= ist vorgegeben
• &did= Downloader-Id
• &checksum= Checksumme


Zurückgegeben wird eine XML-Datei mit folgenden Werten: OTR_FREELINK, OTR_PAIDLINK, OTR_TORRENTLINK, MIRROR_SEARCHLINK.
Bitte rufen Sie diese Datei nur auf, wenn die entsprechende Datei auch heruntergeladen werden soll.


OTR_FREELINK ist dann der link wie aus dem rss feed!

MKay
18.01.2007, 20:56
Ist es auch möglich mit der OTR-API Aufnahmen einzuprogrammieren?
Habe da irgendwie nichts drüber gefunden :)

MKay
21.01.2007, 20:48
Hi,

ach ja, die FAQ gibts ja auch noch, ist ja auch verwirrend, wenn es Wiki und FAQ gibt :P
Habs gefunden^^

PS: Ich hoffe ich bekomme bald ne Rückmeldung, ob ich Zugriff zu der API bekomme :) Hab schon ne ganze Menge gecodet (obwohl ich nichtmal weiss, ob ich überhaupt Zugriff erhalte :X)

Aber ich gönn dem Team erstmal sein Wochenende ;)

Gruss

EvilMM
22.03.2007, 21:38
Wie wird das denn eigentlich ablaufen? Hab mal ne Mail geschrieben. Wie lange dauert das etwa bis man solch eine ID bekommt oder bzw. wie lange dauert es normal bis man überhaupt Antwort bekommt? Bin schon ganz zittrig in den Fingern weil ich mein neues Projekt zu Ende machen will.

Grüße

Monika
18.04.2007, 21:58
Auf http://wiki.onlinetvrecorder.com/index.php/Downloadmanager_Linux wird ein Downloadmanager beschrieben, der auf http://onlinetvrecorder.com/getUserRSSlog.php?email=$mail&pass=$pass zugreift. Funktioniert der jetzt eigentlich nicht mehr?