Moteur DC/NI 9505

Bonjour à tous !
Dans mon école, j’ai reçu le projet de piloter un moteur DC (Maxon), sur lequel est accouplé un codeur (Encoder products), via le module NI9505 sur un cRIO. J’aimerais dans un premier temps réussir à contrôler la vitesse du moteur.
Tout d’abord, j’ai copié le projet exemple nommé « Servo Drive (9505).lvproj » sur mon compte pour ensuite, le faire correspondre à l’adresse de mon cRIO (je n’ai fait aucune autre modification des VIs composants le projet). Actuellement, j’arrive à varier la vitesse du moteur grâce à l’onglet « Current Loop » du VI FPGA pendant que celui-ci est exécuté seul. Cependant, je ne comprends pas l’utilité du second VI nommé « RT Servo Drive (9505).vi». La commande « Current Output Range » de la face avant ne semble pas avoir d’influence sur la vitesse du moteur…
J’ai suivi les opérations à effectuer du fichier « .txt » fourni dans le projet, mais malheureusement en utilisant l’« Interactive Test Panel » j’arrive uniquement à mettre le moteur « Enable » et il m’est impossible de varier la vitesse du moteur comme je le fais avec le VI FPGA…
Pouvez-vous m’éclairer sur le fonctionnement simultané de ces 2 VIs et à quoi sert la commande « Current Output Range » du VI « RT Servo Drive »?
Est-il aussi possible de modifier la vitesse du moteur via le panneau de test ?
Merci pour vos réponses !
(Désolé pour le double post dans la communauté anglaise^^) 
Esteban

Bonjour!
Le RT Servo Drive appel le VI du FPGA: Du coup on ne devrait normalement pas l'appeler directement.
Le RT Servo Drive va seulement faire la configuration de l'axe. Il faut le lancer avant que vous ouvriez le test panel.
Après il faut utiliser le interactive test panel pour vraiment le piloter. La dans le deuxième registre, vous avez un champ pour la vitesse en rev/sec. Dans le premier registre il faut aussi noter combien de révolution vous aimeriez faire. Après quand vous appuyez sur play, le moteur devrait tourner.
Le manual suivant dans une bonne description, comment utiliser le SoftMotion avec cRIO et le FPGA:
Using the NI SoftMotion Axis Interface - July 2009 - National Instruments
http://digital.ni.com/manuals.nsf/websearch/383F3C​8B73ADA618862576010057570B
Veuillez regarder aussi le lien suivant pour plus des informations:
Introduction to LabVIEW NI SoftMotion and C Series Drive Interfaces - National Instruments
http://www.ni.com/tutorial/9666/en/#toc8
Vous pouvez aussi essayer les autres examples dans le projet. Est-ce qu'ils marchent?
J'espère que ça aide pour resoudre votre problème.
Salutations
Corinne

Similar Messages

  • Programmatically selecting one NI-9505 module from a PXI R-series expansion slots

    How can I
    change the SoftMotion example entitled “position control closed loop- NI
    9505.lvproj”  in order to use it as a
    configurable sub-vi to drive serveral motors?
    in a PXI-RT
    box I’m using a PXI-7813R card, its ports are connected to several R-series expansion
    chassis’s  each of them driving three
    9505 Modules, i.e. 12 motors in total
    The problem
    is I didn’t find a way to programmatically define which 9505 Module the sub-vi
    should use, i.e which motor to drive.  Is there a way to archive this?
    thank you.
    A. Villa
    Airbus Deutschland
    Bremen, Germany

    Hello Mr. Villa,
    as the current and position control portion of your code needs to get implemented on the FPGA. That means, that the code needs to be mapped to the gates of the FPGA, which doesn't allow dynamical assignment of resources at runtime. So in your case you will have to implement the code for one axis and create multiple instances of it with modified I/O nodes for each axis. In contrast to the design rules of standard LabVIEW vis, you should work with a quite flat vi hierarchy with LabVIEW FPGA in order to save FPGA space.
    Kind regards,
    Jochen Klier
    National Instruments

  • How can I increase velocity setpoint precision, and obtain average motor current using NI 9505

    Hello,
    I have an application that is roughly based off of the example found
    in ...\examples\CompactRIO\Module Specific\NI 9505\Velocity Control
    (closed loop)\Velocity Control (closed loop) - NI 9505.lvproj
    The "niFPGA Discrete PID.vi" that that this example uses takes an
    INT16 in for the velocity set point.  The issue that I am having is that
    in our mechanical setup, the difference between setpoint increments
    equates to a large changes in mechanical velocity i.e. a setpoint of
    1 equates to about 4mm/min of movement to the piece attached to the
    screw, and a setpoint of 2 equates to about 11 mm/min.
    I would like to have finer control over the motor velocity such that I
    can obtain speeds in between integer setpoints.  Any suggestions?
    Also, does anyone have any suggestions on how the motor current sense
    output of the 9505 can be used to calculate an average current value
    (the amount you'd expect to see if you put an ammeter in series with the
    motor) and not the current during the "on" phase of the PWM cycle?
    Thanks

    Burt S,
    Thanks for the tip about putting inductors in series with the motors, I ordered some 100uH, 330uH, 470uH and 680uH power inductors (220's were out of stock) and have been doing some experimentation. 
    Do you have any suggestions as to how much inductance I should look to add?  Should it be the minimum that gets the inductance to meet the 9505 spec, or are there any ratios that should be adhered to?
    I'm seeing some promising results with regards to the 9505 current measurement on the motor that is 0.119mH when I put a 470uH in series with it, however I'm now having some issues with this motor occasionally getting "disabled by drive" when I'm switching velocity between 0 and say 50% of max, and getting its velocity to go all the way to 0 when I command that.
    There is another motor in this system that is also undersized at 265uH, and even when I put as little as 100uH in series with this one, I begin having issues with it being "disabled by drive" particularly when changing velocities.
    Any ideas what may be causing this behavior?  Could it be the velocity loop PID gains? - if so any general advice on how the to adjust those for the new inductance.
    BTW - these are the same motors for that drill project (that you also commented on), figured I'd keep the electrical stuff in this thread.
    It's still early on in my experimentation with these inductors, but I also made another observation that when I add the inductors to both of those motors, the signal coming from my load cell gets quieter when both of the motors are on, thou the load cell exhibits a larger offset.  I'm guessing this is an EMI issue, does anyone have any ideas what may be going on?
    Thank you for your assistance.
    -MKHokie

  • Understand​ing velocity control on 9505 FPGA VI

    I was able to quickly use the 9505 Servo Drive example to do closed loop position control on the FPGA but I'm having trouble with figuring out how to modify the code to support velocity control (which I need for a different axis).  I'm trying to make my modifications on the FPGA VI itself rather than on the RT Softmotion side.
    Here are the issues I'm having:
    If I use the PI Velocity Loop with my Velocity and an arbitrary control setpoint velocity, I can see the velocity stabilizes (motor output looks uniform) but I can't correlate it with the velocity setpoint other than a bigger number is faster.  Velocity (from the Encoder loop) seems to readback in values of just 0-2 on my FPGA VI (I don't fully understand the units but I see my position change on my encoder readback in thousands of counts per second).  Why are they so different/how do I scale my encoder velocity correctly?
    Using just the shipping 9505 Servo Drive example (position control), how do I set the velocity of a move from within the FPGA code (in interactive mode)?
    Solved!
    Go to Solution.

    I was able to get my velocity readings to match my velocity setpoints when using velocity control mode by increasing my Timer Config.Target Period and  Encoder 'calls per sample encoder' from 2000 to 40,000.  Now my velocity readback is +/- 1 of my velocity setpoint for my drive range.  This makes sense to me now - if you read the encoder to quickly it hasn't accumulated enough points to accurately calculate the velocity.  It was in the documentation but I didn't fully understand it.
    So now I'm down to one question - (from last post):
    I still don't understand how to set the velocity of a move if I'm using position control (out of the box example) from within the FPGA code (on the 9505 example).  Is the best way to do this just to limit the 'Current Output Range' depending on the max velocity requested?  The NI Softmotion RT VIs and Express VIs are able to set 'Velocity' but I'm really unclear what that the SoftMotion RT VIs are actually doing in terms of interacting with the FPGA code.  Can you explain how that works?

  • NI 9505 Closed Loop Position Control Example

    Hello, I have a cRIO 9073 with a NI 9505 module that I'd like to use for simple position control of a unit along a lead screw.
    I don't have the softmotion module, and am trying to write a program bassed off of the "Position Control (closed loop) - NI 9505" example to control the position the small motor attached to the lead screw (Faulhaber 2342S024CR with a 512 count/rev encoder that we had laying around)
    I've reviewed the manual PID tuning example, and have not had much luck getting the response that I'd like when making large position moves simply by adjusting Kp,Ki,Kd gains of the position loop, as the overshoot remains too high for this application when making large moves.  The system is also oscillating about the set point, and doesn't ever seem to dampen out unless I change things other parameters on the fly such as the current limit, or current loop parameters (osciallations get worse as current limit is increased).
    Can someone advise me if the components of this example are up to this task?  Or on the interactions between the current limit, current loop parameters, and position loop parameters from this example, and which parameters would have the most impact on achieving desirable system performance?
    Is there a VI available that can autotune such a motor?

    Hello - there are many reasons why a closed loop controller can oscillate - from correct settings of controller (kp,ki,kd) to making sure signals act in the appropriate direction to deadband/friction in the actuator to badly sized signals/actuators.
    Firstly, have a look at the signal your controller is outputing (ideally in LabVIEW so you can graph it). Does it oscillate - perhaps as a sawtooth, a sinewave or simply switching between maximum and minmum values. I presume the electrical motor driving the screw which is driven from some AO signal from the cRIO (could also be a PWM signal driving the motor).
    I expect (from what you say about current limit) the control signal will be oscillating by switching between maximum and minimum (e.g. +10V to -10V) or oscillating like a sinewave. What values of kp, ki, kd are you using ? If kd is non-zero, set it to zero (you only need worry about this if you want to get maximum performance). Is ki non-zero ? Try setting it to zero - any better ? If you are still getting big oscillations in your control signal, keep reducing kp (e.g. half each time?) until oscillations disappear (as you reduce kp, control signal *should* get smaller - maybe not straight way though).
    If this does not make oscillations go away, then it may be that you have a sign wrong in your loop - i.e. a positive control signal makes lead screw move in opposite direction controller expects. This should be a fundamental thing sorted out when setting up the loop - you could do an open test to check which way +ve voltage moves lead screw. If you find it moves in opposite direction - you can either re-wire, or put a "-1" gain on controller output.
    If there is any more subtle oscillations / obersvations, then try to show some plots of the lead screw motion and control signal, as that always helps when trying to diagnose what is going wrong.
    Good luck.
    Consultant Control Engineer
    www-isc-ltd.com

  • Erreur 10007 lors de l'installation du moteur d'exécution Labview 8.2.1

    Bonjour,
    lors de l'installation du moteur d'exécution Labview 8.2.1(LabVIEW821RuntimeEngine.exe) sur un PC sous windows XP 2002 , j'obtiens le l'erreur 10007 avec le message suivant :
    .\ConfigInfo.cpp(1948): IInstallerError 10007
    Fatal Error. Unable to load resources.
    Unable to load C:\National Instruments Downloads\LabVIEW 8.2.1\Runtime Engine\Bin\data0012.dll because Windows Error 998: L'accès à cet emplacement de la mémoire n'est pas valide.
     while attempting to load  C:\National Instruments Downloads\LabVIEW 8.2.1\Runtime Engine\Bin\data0012.dll
    Quelqu'un a t-il une idée ?
    Merci

    Bonjour Gibad,
    Pouvez-vous m'indiquez la version de labview que vous utilisez (anglaise, francaise, allemande...).
    D'autre part, pouvez vous ouvrir (bloc notes) le fichier setup.ini de l'installeur que vous désirez créer, et me donner l'information sur la ligne :Languages= ???
    Cordialement,
    Rémi D.
    National Instruments France
    #adMrkt{text-align: center;font-size:11px; font-weight: bold;} #adMrkt a {text-decoration: none;} #adMrkt a:hover{font-size: 9px;} #adMrkt a span{display: none;} #adMrkt a:hover span{display: block;}
    >> Les rencontres techniques de NI - Mesures et acquisition de données : de la théorie à la mise en ...

  • [9505] Your Post Office is Unavailable.

    Recently migrated Groupwise 2012 services from a single box to a split system with PO, Domain, and Monitor on one box and the GWIA, Webaccess & secondary domain on the second box. All seems well, except *some* users (not all, only a handful) are receiving the following message when logging into webaccess:
    [9505] Your Post Office is Unavailable. The Post Office Agent might not be configured for SOAP. Please contact your system administrator.
    Checking the webaccess logs reveals the following error:
    8:11:43, <SOAP>, -, INFO, [username], Login
    8:11:43, <SOAP>, -, INFO, [username], Unable to connect to the POA @ http://10.1.10.35:7191/soap
    10.1.10.35 is the IP of the previous POA - the new POA is 10.1.10.135
    SOAP appears to be configured properly and other users are not having any problems. Why just these users?
    Thanks!

    IP is correct in the webacc.cfg file - though not sure why the last line is commented out. Again, only some users are affected.
    Provider.SOAP.1.ip=10.1.10.135
    Provider.SOAP.1.port=7191
    #Provider.SOAP.1.url=/soap
    Checked the TID 7012354. There was no garbage character that I could see, but the Display Name in the General Options was entirely blank. I put the user's Display Name in the field and restarted Webaccess and that user can login now. Wow. Weird.
    I then tried another user that was getting the same error - turns out that user's Display Name is blank as well (I didn't make any changes), but it didn't matter - they could log in to webaccess fine - so now wondering if restarting webaccess was all that was needed in the first place? It's not making much sense. Why is this only happening to a few users? Why do some users have a blank display name under those general options? I only enabled the POP3 & IMAP online settings for those specific users and then checked via their client for the Account settings. Looks to be a tough setting to verify for 2000+ users if it can only be accessed via the user's client login.
    I went back and unchecked the POP3 & IMAP Online setting for those users and restarted webaccess... everything still appears ok. so just weird.
    Will have to monitor for additional user complaints - otherwise, looks now.
    Thanks!

  • 9505 Post Office unavailable, with POA 2014 using SOAP SSL

    Hi,
    I don't know if there is something strange with my customers system, or I found a bug...
    I've just upgraded the Primary and PO server to GW2014, while WebAccess server is still on 2012. Trying to log in gives error 9505 that the PO is unavailable. All communication to https://po-ip:7191/soap is working fine.
    Disabling SSL on SOAP and WebAccess is functioning again. As there are no SOAP SSL switches in the webacc.cfg I'm not able to make it work with SSL.
    Is there some way to fix this - except upgrading WebAccess to 2014, or disabling SSL on SOAP??

    In article <[email protected]>, Pfronteri wrote:
    > Is there some way to fix this - except upgrading WebAccess to 2014, or
    > disabling SSL on SOAP??
    I guess the question is "what is keeping WebAccess 2012 around?"
    It is easy enough to upgrade, and if you have some GW 2012 POs around
    there is a mechanism in Webaccess 2014 that will have it redirect to an
    older Webaccess URL if the POA is still on an older version.
    On a POA you can have two SOAP ports. Perhaps one SSLized for most
    things, the other open for the old Webaccess.
    Andy of
    http://KonecnyConsulting.ca in Toronto
    Knowledge Partner
    http://forums.novell.com/member.php/75037-konecnya
    If you find a post helpful and are logged in the Web interface, please
    show your appreciation by clicking on the star below. Thanks!

  • 9505 post office not available

    GW2012 on SLES11
    single PO - PO/MTA server, Webacc/GWIA/MTA server
    3 users are getting the 9505 error saying something about soap.
    But since datasync is working for these users, and other users are working in WebAcc am a bit lost for a reason.
    Did see a TID saying a 9505 error using secure soap was reported to engineering (9/25/12).
    But have not been able to determine if they are using secure soap for the server to server talking. Don't think so, but......
    Having issues remoting in to check this or other things.
    any ideas on what might be the issue appreciated.
    WO

    * whiteowl76 wrote, On 11/05/2012 10:56 PM:
    > GW2012 on SLES11
    > single PO - PO/MTA server, Webacc/GWIA/MTA server
    > 3 users are getting the 9505 error saying something about soap.
    > But since datasync is working for these users, and other users are
    > working in WebAcc am a bit lost for a reason.
    Are you using access control for WebAccess (gwac.xml)?
    Uwe
    Novell Knowledge Partner (NKP)
    Please don't send me support related e-mail unless I ask you to do so.

  • Comment commander un moteur CC avec Labview

    Bonjour,
    Je suis étudiant en mécanique et dans le cadre d'un projet, je dois créer un programme labview qui:
    - en entrée utilise les image provenant d'un caméra qui film une goutte sur un tapis
    - traiter cette image avec Vision Assistant (étape déjà faite)
    - générer une tension proportionnelle à la position du barycentre de la goutte (trouvé par le traitement précédent) par rapport au centre de l'image (avance ou retard).
    Le problème réside dans la génération de cette tension.
    Je voudrais faire varier la vitesse de rotation d'un moteur CC d'essuie-glace 12V ( Valéo, modèle voiture 406). Pour celà, je sais que je dois envoyer une tension générée depuis mon ordinateur jusqu'à une carte moteur (je pensais à une carte Sabertooth 2*12) mais je dois envoyer l'information par du RS 232. Est-il possible de générer ce type de tension à partir de Labview? Si oui, comment puis-je adapter une génération à la suite de mon programme en remplacement du signal simulé? (Dois-je utiliser VISA?)
    Est-t-il également possible de choisir une carte du type NI USB-6008, de communiquer avec elle et de la connecter à mon moteur? Car je m'aperçois que la sortie analogique n'est que de 5V maxi, donc cela nécessiterai une amplification supplémentaire?
    (Je joins au message la doc de la carte Saberttoth et le programme que j'ai commencé ainsi que l'image sur laquelle je travaille).
    Merci d'avance pour votre aide!
    Résolu !
    Accéder à la solution.
    Pièces jointes :
    test_ouverture_fichier2.vi ‏153 KB
    Carte_moteur_Sabertooth.pdf ‏1314 KB
    goutte test.png ‏249 KB

    Bonjour,
    Si j'ai pu aider. Dans tous les cas, tu auras besoin de ta carte Sabertooth pour servir d'interface de puissance. Par contre, entre le RS232 et l'analogique pour la piloter c'est à toi de voir. Je pense que le 0-5 V fournit par une 6008 est plus imple à mettre en oeuvre, tu auras a mon vis la sortie 0-12V proportionnelle à l'entrée 0-5V. De toute façon, tu ne pourrais pas piloter le moteur en direct, il faut du matériel dédié (comme ta carte), car sinon, une 6008 ne founit pas de puissance, juste une tension.
    L'utilisation en RS232 peut être un peu plus compliqué à mettre en oeuvre au début, masi je pense que tu auras plus de souplesse et de possibilité pour le pilotage du moteur.
    Bonne continuation.
    Pense a marquer le forum comme résolu et à donner des compliments aux personnes qui ont répondu.
    Merci
    .mesLeft{float:left} .mesInfo{border-left:solid 1px #989898;font-size:x-small;color:#989898} .mesLogo{float:right;opacity:0.18} .mesLogo:hover{opacity:0.9}
    Maxime R.  
      CLD - Certified LabVIEW Developer / Développeur LabVIEW Certifié  
      CLAD - Certified LabVIEW Associate Developer   

  • Erreur: LVBrokerAux71 requiert la version 7.1 du moteur d'exécution de LabVIEW.

    Bonjour,
    J'ai désinstallé puis réinstallé NI DAQ 8.3 sur un PC. A présent, lorsque je lance "Measurement & Automation", les messages suivant apparaissent :
    "Initialization failed. Unable to init LV Broker. LabVIEW Run-Time v.7.1.0 is required"
    puis,
    "Impossible de trouver le moteur d'exécution de LabVIEW. LVBrokerAUX71 requiert la version 7.1 (ou compatible) du moteur d'exécution de LabVIEW. Veuillez contacter le vendeur de LVBrokerAux71 pour résoudre ce problème".
    (cf screenshots ci-joints).
    Je précise que je travaille sous la version 8.0 de LabVIEW (et qu'auparavant était installée la version 7.1 mais elle a été désinstallée).
    Je ne comprends pas d'où peut provenir le problème.
    Une idée ?
    Attachments:
    Bug NI2 (2).PNG ‏69 KB
    Bug NI1 (3).PNG ‏67 KB

    Bonjour Arnaud,
    Merci de pauser votre question ici. Une procédure avait été proposée dans un cas similaire dans ce post. Je vous recommande de suivre cette procédure.
    Si vous éprouvez encore des soucis ensuite, n'hésitez pas à nous tenir informés.
    Cordialement,
    BRAUD Jean-Philippe
    Field Sales Engineer - Nord et Centre France
    LabVIEW Certified Developper

  • Piloter un moteur pas à pas

    Bonjour à tous,
    Je suis un stagiaire à l'entreprise Axess tech, et une petite partie de mon projet est de commander et piloter un petit moteur pas à pas à l'aide du logiciel Labview (la vitesse, le sens, le nombre de pas à éffectuer et également convertir le nombre de pas en distance).
    Par exemple, on rentre une distance en mm et le moteur la convertit en nombre de pas qu'il va donc faire. Je pense que cette convertion dépend du moteur choisi mais on pourrait commencer par établir une valeur par défaut que je changerai une fois mon moteur dans les mains.
    Ayant fait de nombreuses recherches sur internet et sur le forum, je n'ai pas trouvé de "tuto" assez explicatif pour débutant pour pouvoir programmer ce type de moteur.
    Je débute sur Labview et je ne sais pas par où commencer car je n'ai ni de moteur ni de carte de commande actuellement et je ne sais pas comment les choisir en fonction de mon application.
    J'aurais donc plusieurs questions :
    Est-ce qu'il y une carte de commande spécifique pour piloter du PC au moteur ? Si oui, qu'elle est sa référence ?
    Est-ce qu'un programme marche avec n'importe quel carte commande/moteur pas à pas?
    Existe-t-il un programme .VI déja fait pour ce type d'application ?
    J'ai la version d'évaluation de Labview étudiant, est-ce que j'ai besoin d'une autre version pour faire cette application ? Télécharger des "drivers" ou autres ?
    J'ai trouvé un petit tuto pour commander une rotation d'un moteur, mais c'est un programme qui gère juste la vitesse de rotation en fonction de la temporisation et le sens... or moi je voudrais également effectuer un certain nombre de pas spécifique. Peut-être que vous pourriez m'aider à l'améliorer... ou changer complètement de programme car celui-ci n'est pas adapté ? (voir images ci-joint)
    Désolé de mon ignorence, j'espère que vous pourrez m'aider.
    Je vous remercie d'avance, mes salutations distinguées.

    Le premier pas - indispensable et incontournable - consiste à choisir le moteur en fonction de l'application et le driver qui servira à le piloter.
    Tant que le matériel n'est pas défini, il ne sert pas à grand chose de parler "programmation" car celle-ci en dépendra très fortement.

  • CompactRIO restart when run VI of NI 9505 and servo motor

    I plan to use NI 9505 to control a servo motor, and the cables are connected according to the manual of NI 9505 (The M+  and M- ports are connected with servo motor directly). I can read the the encoder value from VI, but when I try to control the servo motor by even a very simple VI, the error happens, and the compactRIO restart. When I disconnect the motor and 9505 module, the voltage between the M+ and M- port can be measured, and it  is 24 V. I think maybe the current of motor through the 9505 module is too high, but why and how to solve it. Is there anybody can help me? Thank you very much. 

    If you believe that your motor pulls more than 5A, take a look at this from the NI 9505 product page. It's the first bullet point.
    Continuous current of up to 5 A at 40 °C (or 1 A at 70 °C) at 30 V - for higher power add NI 9931
    The NI 9931 will allow the 9505 to supply up to 7.3A.
    www.movimed.com - Custom Imaging Solutions

  • Téléchargement d'une ancienne version du moteur d'exécution Java SE 6 ?

         J'ai récemment acheté la suite CS6 Production Premium pour Mac. (OS : OS X Yosemite version 10.10.1)
         Les autres applications fonctionnent normalement, mais je n'arrive pas à ouvrir Flash et Illustrator : à chaque fois que j'ouvre l'application, une boite de dialogue apparait et m'indique ceci : "L’installation de l’ancien moteur d’exécution Java SE 6 est nécessaire pour ouvrir « Adobe Illustrator CS6 » / « Flash »"
         Le lien de redirection étant mort, quelqu'un sait-il où je peux trouver la version en question du moteur ?

    Bonjour,
    Réponses ici : http://bit.ly/1GNsIZv

  • Utiliser des servo-moteurs TDC001 en mode simulation

    Bonjour,
    Dans le cadre de mon projet, j'ai réalisé une application LV permettant de piloter trois moteurs Thorlabs
    Etant donné que je ne les ai plus sous la main, la solution qui me reste pour réaliser des essais de mon VI et travailler chez moi est d'utiliser le mode simulation des servo-moteurs. J'ai déjà jeté un oeil dans la documentation du servo-moteur TDC001, mais c'est vaguement expliqué à vrai dire...
    Comment dois-je procéder ?
    On est bien d'accord qu'avec le mode simulation, on peut visualiser le fonctionnement des servo-moteurs dans l'application APT User, c'est bien ça ?
    Je vous remercie.
    Cordialement,
    Che57

    Bonjour,
    Pouvez vous nous fournir cette documentation en question?
    Vous avez posté pour un sujet similaire, un ingénieur de Thorlabs a également répondu.
    Parallèlement, je vous conseille de vous mettre en relation avec le support technique de Thorlabs pour maximiser vos chances d'obtenir une réponse rapide et adaptée à votre question.
    Cordialement,
    Celine
    National Instruments France
    #adMrkt{text-align: center;font-size:11px; font-weight: bold;} #adMrkt a {text-decoration: none;} #adMrkt a:hover{font-size: 9px;} #adMrkt a span{display: none;} #adMrkt a:hover span{display: block;}
    Journées Techniques LabVIEW
    Du 15 octobre au 7 novembre : Strasbourg - Lyon - Lille - Toulouse - Mar...

Maybe you are looking for

  • ITunes App Store turning into cesspool

    People are putting Apps on the App Store that describe features of the App and charging for those features in In App Purchases. I bought a printing application that looked good from the description. Says right in the description, "Prints PDF". So I b

  • OATS - 12.1.0.1.0361 Issue with running a  scenario

    Hi, I am doing a comparison of Hits/sec and cpu usage for a scenario with OATS and LR. I have remote load generator and app server. With OATS, i am getting almost half the hits/sec and cpu as compared to lr. Till now what i have noticed is that the t

  • Loss of audio in macbook air

    I keep losing audio on my macbook air and it does not come back until I have restarted. Is there a way to avoid having to restart?

  • Canon G12 Raw in PS Elements 6.0

    I have found that LR 2.7 will not support G12 Raw files. What is the situation with PS Elements? Which is the earliest version that will support G12 Raw files? Will the necessary version of Elements run on OS 10.4.11 Will LR 3.3 run on OS 10.4.11? Ma

  • Current shutdown comparison

    Hello, I am trying to make labview display an error message if daq assistant is inputting  more then 1amp of current, but if it is less then 1 amp of current i want the program to continue on normally. I am not sure how to program this since the comp