<div dir="ltr">Hi to every one. <br><br>After watching how VE4VR controled an IRLP node I started to wonder how could this be done on ASL. I dont want to steal the fame to this brilliant gentleman..<div><br></div><div>I am just damn curious how he did it and if it is done on ASL, preventing unwanted stuff to happen.. </div><div><br></div><div>As they said there is more then a one way to skin a cat. here is my version..<br><div><br></div><div>I attached an image on how this could be done. But I also have some question...<br><br><div><img src="cid:ii_jqkgre430" alt="AI setup.png" width="978" height="580" style="margin-right: 0px;"><br></div></div><div>As you can see I think that using the Chan_USRP  driver to the Analog Bridge from the DVSwitch project there is a way to talk back an forth to the AI (PIcovoice project)</div><div><br></div><div>This would be a local node (1999) to the server and another node (28XXX) connected to the server by USBRadio or Simple USB or Chan_Voter would be the radio interface to the airwaves.<br><br>Now all this is nice and no one on the network links will say the wake work for the local repeater and all is well. NOT. It will happen that remote user will use the wake word and the AI will be all over the place. NOT GOOD.  So beside using maybe another ctcss tone to enable the AI listening audio stream, wich could be a good idea as only people in the know would be able to trig the AI, is there another way differentiate the audio stream from a local one to a network one.. I imagine that we could use a small script to turn on or of muting on the audio stream to the AI?<br><br>Dont start trowing flames!! It is just for discussion and having fun waiting for the code to be released by William.. ( well I hope he will do it ;-) )</div><div><br></div><div>It is a damn fun time to be in ham radio!</div><div><br></div><div>Pierre </div><div>VE2PF</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div>