Schlagwort-Archive: eclipse

nodemcu and arduino

having such small device, with wifi and many analog and digital i/o ports by hand, is somehow nice. that general purpose input output connectors are known as GPIO….. the loveley mr. wang from hongkong, tower 4, building c had send me that esp8266 v3 (340) board within the second week, directly from china, by airmail.

device ports with addresses

that device ( nowerdays called „iot device“ ) can be used as serial bridge, for incomming / outgoing signals. a little more sophisticated is the idea, to send all the data by http with tcp/ip or as udp paket. a lot of traffic can be estimated, beside failure correction , missing paket and other crapy errors, that are common.

pushing a json string that way, triggered, when the value changes, could be more gentle to the chip. the unknown state of the receiver is the pitfall there. using websockets on the nodemcu will work with some message client, like mqtt, is the next climbing. the client subscribes to a master ( tomcat / rabbit mq or pure servlet with extras )  and  delivers the information straight there. the server will handshake the  request with a response, directly to a open port, on the client ip.

should be all, will see, when the code is working as expected. 20 sensors with 50 samples/second could mean 1000 requests per second – commonly. if nodemcu/raspberrypi3 is able to feature all that, is the question for the comming days. the arduino is something one have to learn, how to use  that efficiently is the first step. the next is, to have some java ide, like eclipse ready with java, then tomcat and a dbms or storage engine, like mariadb installed within a virtual machine, with the same debian, that is used for raspberrypi, that is called raspian. then the code delivery or the binaries should work on both enviroments, even if the architecture will differ between amd and arm.

a related story was some years ago, the teensy to get into the mac


while iam trying to reach a cloud instance as db-tier, called dashDB, some side effect of the toolset here, is excentrical and need to be named…i tried with aqua data studio, but that failed as well, while java-8 is working under the hood and that 8 versions from times ago and now, wont play together :/

datastudio with half set home path for that vendor … crashed … oracle – make my day again …
agenity, some proposed query workbench wont work with the current cloud instance…? tells me something about a version, i want dasdb, he means db2v9.0.0.2 – but where to put that driverclass then ?

meanwhile, i have found some equivalent to such tools, called „aginity workbench for dasndb„, also a eclipse based tool.


da ich mir vor ein paar jahren ( 2008 / 2009 ) das google-web-toolkit
( gwt ) angeschaut und für gut befunden habe, taucht es hier in diesem kontext ebenso auf. der anfang war zäh, kompilieren auf kommanoZeile, die unterstützung für eclipse nur rudimentär. mittlerweile sind wir bei v.2.6.1 angelangt und eclipse ist bei 4.3 und heißt kepler, doch das ist ein anderes thema.

da ich unter linux und windows entwickel ( ja auch windows ist in der nutzung – schande hin oder her ) und gwt unmengen an temporären dateien erzeugt und mir die platte vollrotzt. warum windows das nach über 20 jahren immer noch nicht kann, ist mir ein rätsel.

ziel soll es sein, das die im eclipse ( aus java dateien erzeugten javascript-dateien ) generierten dateien und verzeichnisse unter windows gelöscht werden. in der praxis hat sich gezeigt, das bei jeder kompilierung ein paar dutzend megabyte anfallen, die sich im laufe einer session dann gern mal zu ein paar gigabytes summieren.

script1: startet eclipse und script 2 im hintergrund


script2:  startet alle 10 minuten script 3 im hintergrund


script3: listet in drei verzeichnissen die dateien und löscht diese


da man sicher einiges noch schicker machen kann, kann es passieren, dass die scripte aktualisiert werden. so ganz rund wie gedacht, laufen sie leider noch nicht, auch wenn der reinemache-dienst nun tut.